Problemas com o Modelo Padrão

Deep Field: Imagem obtida pelo Hubble Space Telescope
(1) Homogeneidade é a propriedade do espaço de ser basicamente, pelo menos em média para grande escalas, independente do ponto onde se olha. As diversas partes do universo possuem a mesma densidade de matéria e radiação. Isotropia é a invariância destas propriedades com relação à direção. O universo é idêntico, para todos os lados que se olhe. Esta homogeneidade e isotropia não ocorrem em todas as escalas. No nível das galáxias, por exemplo, a matéria está concentrada nestas galáxias, que são muito mais densas no núcleo do que em suas bordas. Além disto as galáxias estão separadas entre si por grandes distâncias. Em níveis maiores elas tendem a se agrupar em aglomerados galáticos e, portanto, também não existe homogeneidade nesta escala. A homogeneidade aparece em escala muito maiores e isto pode ser verificado através de correlações entre distribuição e escala ou através de medições feitas sobre a radiação cósmica de fundo. Leia mais sobre o modelo padrão do Big Bang ou sobre a radiação cósmica de fundo.

O modelo do Big Bang é uma consequência da Teoria da Relatividade Geral, TRG, sob a hipótese de que o universo é homogêneo e isotrópico(1). Este modelo é bem sucedido em explicar características observadas, em especial o afastamento das galáxias descoberto por Edwin Hubble e a radiação de fundo na faixa de microondas. Vale enfatizar que, neste quadro, o universo não existiu sempre, tendo passado por um momento específico a aproximadamente 14 bilhões de anos. A pergunta sobre o que existia antes do Big Bang não possui qualquer significado, da mesma forma que uma pessoa postada sobre o pólo norte não pode prosseguir caminhando em direção ao norte.

No entanto ela introduz um número de problemas ainda não resolvidos, entre eles o motivo para que o universo esteja tão perto de sua densidade crítica (ou porque ele é hoje um universo plano), de como ele alcançou a homogeneidade hoje verificada embora não exista a possibilidade de contato entre regiões causalmente separadas, ou mesmo sobre o que teria motivado a própria explosão inicial. Existe razoável consenso entre os pesquisadores da área de que a TRG, que é a estrutura matemática por trás da descrição do espaço-tempo, não é uma boa teoria para a descrição dos estados que ocorreram logo após o big bang quando matéria e energia se encontravam em estado de alta densidade e a temperatura era muito elevada. É muito provável que uma descrição quântica da gravitação seja necessária para uma descrição apropriada deste período. Esta descrição, pelo menos por enquanto, não existe.

A TRG explica a gravitação em termos de modificações na curvatura do espaço-tempo causadas pela presença de matéria-energia. A teoria é elegante, matematicamente consistente e verificada experimentalmente em todos os tipos de experimentos e observações possíveis até o presente.

(2) Na natureza existem apenas quatro campos identificados: o campo gravitacional, campo eletromagnético, campo nuclear fraco e campo nuclear forte. É possível hoje mostrar que, em altas temperaturas (portanto altas energias), tais como as encontradas logo após o big bang, estes campos, exceto o gravitacional, se tornam unificados e a teoria quântica de campo é o embasamento teórico para esta unificação. A teoria quântica de campo não faz nenhum uso de alterações na geometria do espaço como a TRG mas explica as interações entre partículas subatômicas por meio de trocas de partículas virtuais.

(3) Em breve publicaremos neste site um artigo exclusivamente sobre a constante cosmológica e sua história.

Por outro lado houve também um grande avanço na explicação dos demais campos de força2. Na década de 1980 foi proposto o modelo inflacionário que se utiliza de campos quânticos para promover um crescimento muito rápido no universo inicial. Considera-se hoje que a inflação é a responsável pela explosão e explica algumas características hoje observadas, tais como porque o universo se encontra tão próximo da densidade crítica e porque é tão homogêneo. Além disto as pequenas distorções ou inomogeneidades observadas na radiação cósmica de fundo são compatíveis, dentro do panorama da inflação, com a formação de galáxias e grandes estruturas como aglomerados galáticos.

Independente do sucesso ou não deste modelo é necessário incluir a presença de campos quânticos e a provável existência de uma constante cosmológica, tal como proposta por Einstein ou alguma alternativa na forma de termos cosmológicos variáveis com o tempo. De fato tornou-se um problema adicional a explicação de como o universo sai da fase inflacionária e existem evidências observacionais de que ainda existe, mesmo no presente, uma pressão para a expansão, o que poderia ser explicado pela presença de uma constante cosmológica3.

Representação artística de um buraco negro: uma região de altíssima curvatura no espaço-tempo, de onde nem a luz consegue escapar.

O fato de que a TRG prevê seu próprio fracasso em algumas regiões do espaço tempo, dentro das chamadas singularidades representadas por buracos negros ou pelo própio Big Bang, é suficiente para que se investigue uma descrição alternativa, provavelmente uma extensão, no mesmo sentido em que a teoria da relatividade especial é uma extensão da mecânica clássica e a relatividade geral é uma extensão da especial. Além disto a existência de teorias reconhecidamente eficientes para a explicação da natureza dentro de seus respectivos domínios mas inconsistentes entre si em um domínio comum, tal como ocorre com a teoria quântica de campos e a teoria da gravitação, impulsiona a busca de uma nova teoria. Como se acredita que esta teoria deve incorporar características da física quântica ela tem recebido o nome de Gravitação Quântica, GQ.

Perturbações em escalas de 10-33 cm nos campos e na densidade de partículas faz com que o espaço-tempo tenha uma natureza de “espuma” nesta escala.

Um raciocínio simples aponta para a necessidade de uma descrição especial para a gravitação ou para o espaço tempo em níveis microscópicos. Suponha que estamos analisando uma região vazia do espaço-tempo onde nenhuma matéria ou energia tenham sido detectadas. Temos neste caso um espaço plano, matematicamente denominado espaço-tempo de Minkovsky. Suponha ainda que passamos a analisar este espaço-tempo com microscópios poderosos para compreender o que ocontece com o espaço em escalas muito reduzidas. De acordo com a teoria quântica nenhum dos campos físicos existentes pode ser relaxado ou enfraquecido até um nível completamente nulo. Como todos os osciladores, mecânicos ou não, o nível mínimo de energia não é nulo ou, dito de outra forma, o estado fundamental de qualquer oscilador encontra-se acima do zero. Estes campos carregam energia e portanto devem provocar a curvatura do espaço. Alternativamente se pode imaginar outro quadro: microscopicamente a teoria quântica permite a criação de partículas virtuais acompanhadas de suas antipartículas, desde que elas surjam e se aniquilem rapidamente de modo a não contrariar o princípio da incerteza. Estas partículas carregam massa e energia e portanto curvam o espaço-tempo. Pode-se portanto esperar que o espaço-tempo tenha uma estrura ultra granulada, como se fosse uma espuma de bolhas, em um nível muito pequeno. Esta espuma deve afetar os fenômenos, pelo menos em níveis microscópicos ou de altas energias.

(4) Com o fim da guerra fria ocorreu uma drástica uma diminuição no nível de investimento em pesquisa básica no mundo todo. Os aceleradores estão se tornando cada vez mais caros, só se tornando possível em empreendimentos cooperativos envolvendo diversas nações.

Existem diversas formulações candidatas concorrentes ao título de Gravitação Quântica, GQ. Entre elas está teoria das cordas em suas diversas modalidades, loops (ou laços) ou teorias quânticas não-perturbativas. Além de sua importância em cosmologia se espera dai uma explicação para muitas questões não respondidas, tais como um tratamento mais completo de singularidades, a compreensão de aspectos quânticos dos buracos negros e, possivelmente, sobre a natureza da energia escura. Toda teoria física deve fornecer previsões que podem ser verificadas sob o crivo da experimentação e observação, e estas não são exceções. No entanto as predições testáveis destas teorias ocorrem em regime de altíssimas energias que ainda não podem ser obtidas nos aceleradores de partículas atuais. Por isto existe uma corrida4 para a construção de aceleradores maiores e melhores e eventualmente será possível discernir quais destas teorias, se houver alguma, estão corretas ou não. Outra possibilidade de teste consiste na observação astrofísica de buracos negros, de eventos cósmicos de altas energias e da própria cosmologia.

Além de passar por estes testes uma boa candidata à teoria da GQ deve se resumir à Relatividade Geral no domínio de baixas energias, assim como objetos em velocidades relativísticos passam a ser muito bem descritos quando sua velocidade baixa até um nível muito inferior à velocidade da luz.

Teoria das Cordas, Universos sem um Início

(5) A “Teoria” das cordas não é de fato uma teoria, mas um modelo proposto ou uma hipótese. Para uma diferenciação entre modelos, teorias especulativas e teorias comprovadas e aceitas leia: Teoria, Hipótese e Modelo em Física.

Uma das “teorias”5 tentativas promissoras e muito interessantes para a descrição de uma gravitação quântica, reconciliando a mecânica quântica e a gravitação, tal como descrita pela teoria da relatividade geral, é teoria das cordas ou string theory. A principal motivação para se considerar uma teoria deste tipo é a procura pela chamada Teoria de Tudo (Theory of Everything – TOE), uma forma matemática unificada de descrição da matéria e dos quato campo conhecidos. A teoria das cordas propõe que partículas elemtares, tais como eletrons e quarks, não são objetos pontuais (adimensionais), como são tratados na formulação clássica e mesmo na mecânica quântica padrão, mas sim pequenas cordas oscilantes e vibratórias, objetos unidimensionais. Os primeiros modelos de cordas incluiam apenas bósons, partículas de spin inteiro tais como o fóton e outras partículas que servem de mediadoras entre os campos de força. Mais tarde foram propostos modelos como os de Supercordas onde se pretendia uma supersimetria envolvendo bósons e férmions (elétrons, por exemplo). Curiosamente o tratamento matemático destes modelos envolve a existência de dimensões extras além das quatro dimensões do espaço-tempo usuais. Como estas dimensões extras não são observadas se desenvolveu um mecanismo de compactação destas dimensões que adquirem altas curvaturas e se tornam algo como pequenas bolas anexadas a cada ponto do espaço físico.

A teoria das cordas ou strings parte do pressuposto de que as partículas elementares não são pontos mas sim pequenas cordas.
Imagem modificada à partir de imagem na Wikimedia Commons, sob licensa Creative Commons.

Na década de 1990, em uma tentativa de apresentar um modelo que engloba os diferentes modelos de supercordas existentes, foi proposta a Teoria-M, (M de membrana) onde as cordas são vistas como cortes de membranas vibratórias que existem em 11 dimensões. Alguns físicos consideram que a teoria das cordas e seus aperfeiçoamentos são um passo importante na compreensão da teoria unificada, enquanto outros a criticam por não fornecerem previsões quantitativas suficientes para que possam ser comprovadas ou descartadas pela experimentação.

Apesar de parecer excessivamente especulativo o conceito de cordas carrega consigo alguns aspectos interessantes. Para entender isto podemos considerar um mero eletron como partícula pontual. Na descrição usual de partícula seu campo gravitacional e elétrico ambos são proporcionais a 1/r2 sendo portanto singulares em r=0 (assumem valores que tendem a infinito quando r tende a zero). Em outras palavras tanto o campo gravitacional quanto o elétrico tendem a infinito nas proximidades do eletron que carrega, portanto, infinita energia! Esta dificuldade é removida se sua massa e carga (e outras propriedades) estão distribuídas ao longo de uma corda ou membrana.

A falta de comprovação, no entanto, não impede que muitos cosmólogos apliquem os conceitos das cordas em seus modelos cosmológicos, obtendo alguns resultados interessantes apesar de altamente especulativos. Um exemplo disto esta descrito no artigo Modelo de Steinhardt e Turok.



Desvio para o vermelho e a lei de Hubble

O desvio para o vermelho (redshift) é um fenômeno ótico ocasionado pelo afastamento da fonte de luz e um caso particular do conhecido efeito Doppler. Também pode ocorrer desvios para o vermelho devido a efeitos gravitacionais, um caso que será tratado em outra parte.

Fonte vibratória em movimento

Christian Doppler foi o primeiro a dar uma explicação física para o fenômeno e também a prever que ele ocorre em qualquer tipo de onda, mecânica ou eletromagnética. Foi ele também quem sugeriu que o efeito pudesse ser usado para medir velocidades de objetos celestes.

Para compreender o efeito vamos primeiro nos lembrar do que ocorre quando observamos um carro de corrida se aproximando em alta velocidade. O ronco do motor é mais agudo na aproximação. Depois que o carro passa por nós e se afasta o ronco se torna mais grave. Na aproximação um número maior de frentes de ondas atinge nossos ouvidos por unidade de tempo e interpretamos isto como aumento da frequência (mais agudo). No afastamento um número menor de frente de ondas nos atinge no mesmo tempo, o que interpretamos como diminuição da frequência (mais grave).

A luz vermelha tem a seguinte frequência e comprimento de onda:
4 × 1014 HZ — 7,5 × 10-7m
A luz violeta, no outro extremo do espectro:
7,6 × 1014 HZ — 3,9 × 10-7m

Efeito idêntico ocorre com a luz, que é uma forma de radiação eletromagnética e vai desde o vermelho até o violeta. Um objeto com cor conhecida e que se afasta em alta velocidade tem a sua cor deslocada em direção ao vermelho e medida deste desvio pode ser usada para determinar sua velocidade. Da mesma forma se o objeto se aproxima sua cor é desviada em direção ao azul, ou seja, tem a sua frequência aumentada.

Para medir a velocidade de uma estrela ou galáxia distante é necessário conhecer a cor de alguma radiação emitida por ela e isto é possível devido à mecânica quântica. Os gases contidos em objetos quentes emitem luz em faixas ou cores muito bem definidas que dependem do material de que são compostos. Estes espectros de emissão funcionam como assinaturas específicas de cada elemento, átomo ou molécula e servem para identificá-los na Terra ou nas estrelas. Desta forma foi possível identificar o elemento químico hélio no Sol em 1868, antes que pudesse ser detectado na Terra, uma vez que ele é abundante nas estrelas e raro em nosso planeta.

Linhas de emissão (ou absorção) são deslocadas no espectro
Ainda não se sabia, naquela época, que as nebulosas eram objetos fora de nossa galáxia.

O astrônomo americano Vesto Slipher, em 1912, estudando os espectros observados de nebulosas espiraladas descobriu que as linhas espectrais de elementos conhecidos estavam presentes nas nebulosas mas deslocados de suas posições padrões. Estes deslocamentos foram interpretados como devidos ao afastamentos dos objetos observados.

Desvio para o vermelho provocado pelo afastamento

Mais tarde, em torno de 1919, Edwin Hubble iniciou um projeto de medida de distâncias de nebulosas espiraladas e estrelas conhecidas como cefeidas, usando o telescópio de Hooker de 2,5 m de diâmetro, considerado grande para aquela época. Ele provou que as nebulosas, incluindo Andrômeda, estavam longe demais para fazer parte de nossa galáxia e que eram, de fato, grandes aglomerados de estrelas como a nossa Via Láctea, ou seja, são galáxias como a nossa! Em seguida, combinando o conhecimento das distâncias destas galáxias com o seu desvio para o vermelho Hubble e Humason mostraram que existe uma proporcionalidade: quanto mais distante um objeto celeste mais rápido ele se afasta de nós. Apenas galáxias no nosso grupo local, entre elas a própria Andrômeda, estão se aproximando. Esta observação é compatível com a descoberta teórica feita pelos físicos e matemáticos que exploravam as consequências da Teoria da Relatividade Geral de Einstein e com o modelo cosmológico decorrente, bem como com a observação feita por Penzias e Wilson da radiação cósmica de fundo, na faixa das microondas.

A lei de Hubble é expressa pela equação v = H0D onde H0 é uma constante de proporcionalidade denominada constante de Hubble, D é a distância da galáxia considerada e v é a sua velocidade. A constante de Hubble é frequentemente dada em unidades de (km/s)/Mpc, (quilômetros por segundo) por megaparsec sendo que 1 parsec é, aproximadamente, 31×1012 km ou 3.26 anos-luz.

Uma medida recente da constante de Hubble, realizada pelo Telescópio Espacial Hubble em 2009, fornece o valor de H0 = 74.2 ± 3.6 (km/s)/Mpc. A medida desta constante, juntamente com o modelo padrão da cosmologia, nos leva à conclusão de que o universo tem aproximadamente 14 bilhões de anos!


Por que o céu noturno é Escuro?

🔻Final do artigo

Suponha que uma pessoa é curiosa e tem uma mente investigativa mas não dispõe de recursos tecnológicos, tais como grandes telescópios, ou teóricos, como a Teoria da Relatividade Geral de Einstein. Existe alguma maneira pela qual ele perceba que o universo não é simultaneamente infinito e estático?

Este investigador sem recursos sai à noite para observar as estrelas e percebe, como todos sabemos, que o céu éescuro à noite, exceto pelo brilho pontual das estrelas, dos planetas e galáxias. Sabemos ainda, embora o observador sem recursosnão o possa notar, que existe também uma radiação abrangente e uniformemente espalhada pelo espaço, aradiação cósmica de fundo que não é visível por estar na faixa de frequência das microondas. No geral o céu noturno é escuro. Nosso pensador, no entanto, supõe que o universo é infinito e estático e que existe um número enorme de estrelas espalhadas de modo aproximadamente uniforme pelo espaço. Em qualquer direção em que ele olhar para o céu haverá uma estrela uma vez que o universo é infinito (ou muito grande).

Figura 1: O Paradoxo de Olber

Figura 1A área da casca esférica (a superfície da esfera representada na figura pelo círculo verde) cresce com o quadrado da distância, enquanto o brilho das estrelas decai de modo inversamente proporcional ao quadrado desta distância. Como se partiu da suposição de que a densidade é a mesma, na média, então o número de estrelas é maior na medida em que se afasta do observador. Este número maior compensa o efeito da queda de luminosidade devido à distância.

É claro que as estrelas mais distantes parecerão ser menos brilhantes mas, por outro lado, haverá um número maior delas para camadas mais distantes, como está ilustrado na figura 1. A intensidade do brilho diminui com o inverso da distância ao quadrado, mas o número de estrelas aumenta proporcionamente com o quadrado da distância de forma que os efeitos se cancelam e o céu noturno deveria ser brilhante, pelo menos com brilho similar ao do disco solar, visto aqui da Terra.

Este é o chamado paradoxo de Olber e foi, na verdade, percebido muito antes de Olber. O astrônomo Edward Harrison1 descreve que Thomas Digges, matemático e astrônomo inglês, percebeu ainda no século XVI problema do brilho do céu noturno. Digges era um defensor do sistema Copernicano e foi o primeiro asugerir que, além da esfera das “estrelas fixas” havia um espaço infinito e “repleto de estrelas”. Também Kepler descreveu o problema em 1610, embora uma forma mais moderna de compreensãodo mesmo só tenha surgido no século XVIII com o trabalho de Halley e Cheseaux. O astrônomo alemão Heinrich Olber voltou a levantar a questão em 1823 e a tornou mais conhecida, sem ter alcançado uma compreensãode sua solução. Lord Kelvin, segundo Harrison, foi o primeiro a apresentar uma tentativa de solução. Curiosamente o escritor Edgar Allan Poe2, antes de Kelvin, fez uma descrição simples de sua solução.

(1) 1987. Harrison, Edward: Darkness at Night: A Riddle of the Universe, Harvard University Press. ISBN 9780674192706.

2) A citação de Poe, aqui em livre tradução, é uma antecipação da explicação oferecida por Kelvin: “Se houvesse uma sucessão infinita de estrelas o fundo do céu nos pareceria brilhar com luminosidade uniforme, como a exibida na Galáxia – uma vez que não existiria nenhuma direção para a qual se olhasse sem que uma estrela lá estivesse. Portanto a única maneira de compreendermos esta situação, de acomodarmos a noção de que os telescópios podem mostrar grandes vazios em diversas direções, é através da suposição de que as distâncias cósmicas são tão gigantescas que nenhum raio de luz das estrelas distantes foi até agora capaz de nos alcançar.”

Esta não é, infelizmente, uma explicação correta para o suposto paradoxo.

(3) A radiação cósmica de fundo é bastante uniforme mas não completamente! Pequenos desvios na homogeneidade ou “caroços” em regiões um pouco mais quentes ou mais frias são exatamente o que se deveria esperar à partir das teorias de geração das estruturas, tais como galáxias e grupos de galáxias. Se a matéria-energia primordial fosse completamente homogênea nenhuma estrutura seria formada.

Algumas tentativas de solução foram apresentadas:
  1. o espaço é permeado por grande quantida de poeira que impede a passagem da luz,
  2. existe apenas um número finito de estrelas,
  3. a distribuição das estrelas não é uniforme,
  4. o universo é muito jovem e a luz das estrelas distantes ainda não nos alcançou,
  5. o universo está se expandindo.

A primeira tentiva consiste em supor que existe matéria espalhada pelo espaço e que esta poderia impedir a passagem da luz das estrelas distantes. No entanto, ao absorver luminosidade (que é uma forma de radiação e transporta energia) a poeira se aqueceria a passaria a emitir luz por conta própria. Por outro lado uma quantidade muito grande de poeira obscureceria nosso Sol e poderia ser detectada da Terra, algo que não acontece.

Quanto a segunda resposta, é possível (mas não muito provável) com base no que se conhece hoje que o universo seja finito e exista um número finito de estrelas. No entanto o número de estrelas e outros objetos celestes já conhecidos e catalogados já é suficientemente grande para iluminar o céu noturno.

A discussão da terceira tentativa de explicação do problema é um pouco mais complexa e está discutida com mais detalhe no artigo principal sobre cosmologia. Em resumo, apesar de exibir claramente desvio de uniformidade em escalas menores, como pode ser observado nos sistemas planetários, nas galáxias e mesmo nos agrupamentos galáticos, o universo aparenta ser aproximadamente homogêneo em escalas muito grandes, bem maiores que a de agrupamentos de algumas poucas galáxias! A homogeneidade da radiação cósmica de fundo é outro bom argumento de que o universo é homogêneo em grande escala3.

A quarta premissa é um pouco mais complexa e exige um conhecimento matemático um pouco mais detalhado para sua compreensão. Apenas para não deixar de todo a questão sem tratamento, adiantemos algum conteúdo para análise e apreciação! O Big Bang não representa apenas a origem do conteúdo material do cosmos, mas também do espaço e do tempo. De acordo com a Teoria da Relatividade o próprio espaço se expande e o tempo teve um início. Não existia nada antes do início, nem matéria, nem o espaço e nem o próprio tempo. A informação mais antiga que temos da explosão é representada pela radição cósmica de fundo e ela está fria demais para iluminar o céu noturno!

O Universo Observável é composto de tudo aquilo que emitiu radiação e esta radição nos alcança no presente. Como a velocidade da luz é finita é possível que existam partes do universo não observadas mas isto nos remete a um terreno pouco físico, uma vez que estas regiões não nos afetam de forma alguma. Além disto seria surpeendente se regiões distantes de nossa observação, se existirem, fossem muito diferentesda região observado, que apresenta grande grau de uniformidade e homegeneidade. Além disto a homogeneidade da radição de fundo é uma indicação de que houve tempo suficiente para que as diversas regiões do espaço interagissem entre si atingindo a homogeneidade.


A última das possibilidades é geralmente apresentada como a melhor solução para o paradoxo (que portanto não é um verdadeiro paradoxo!). Com a expansão universal as estrelas, galáxias e tudo o mais que emite luz estão em velocidades que são mais altas para objetos mais distantes e o efeito do desvio para o vermelho enfraquece o brilho desta radiação.

Desta forma, uma pessoa desprovida de instrumentos poderia ter percebido, antes das medidas do deslocamento feitas por Hubble, que o universo não pode ser simultaneamente estático e infinito.

🔺Início do artigo


Cosmologia, a Estrutura do Universo

O Céu pode cair sobre nossas cabeças?

Uderzo e Goscinny criaram a história em quadrinhos de Asterix e a famosa tribo gaulesa que teria vivido aproximadamente 50 anos antes da Era Cristã. Quase toda a Gália havia sido ocupada pelos romanos, exceto por uma pequena aldeia povoada por bravos guerreiros gauleses que, isolados, resistiam ao invasor. Com a ajuda do druida da aldeia, que lhes fornecia uma poção de invencibilidade, eles levavam uma vida despreocupada e divertida e nada temiam … exceto que o céu lhes caísse sobre as cabeças.
 

É claro que todos os que leram aquelas histórias se divertiram com esta questão. Mas isto não elimina a necessidade da pergunta: pode o céu cair sobre as nossas cabeças?
(1) Exploraremos com maior cuidado o significado desta última formulação da pergunta!
(2) A palavra cosmologia vem do grego κοσμολογία, kosmos, “universo” e logia, “estudo”) e representa uma tentativa de apreender racionalmente o Universo em sua totalidade, a distribuição e estrutura de seu conteúdo, o mecanismo de sua formação e seu desenvolvimento futuro.

Talvez a pergunta possa se revestir de maior credibilidade se a colocarmos sob outra forma: “o céu, o firmamento, as estrelas e o próprio universo são eternos?” Ou ainda, sob forma mais técnica: “Existem soluções estáveis para o movimento dos objetos celestes que hoje conhecemos?”(1)

As pessoas, em todos os tempos, sempre se perguntaram sobre a origem do mundo, sobre como ele está hoje estruturado e como será o seu final, caso venha a existir um final. Esta é a questão básica da cosmologia(2). A maior parte deste esforço foi feito sob a forma de mitologia e filosofia, cada uma destas com seu próprio valor e capacidade de abrangência. Mas apenas recentemente foi possível obter um tratamento científico para estas dúvidas e muitas respostas interessantes são daí decorrentes.

A maior parte do que hoje sabemos sobre cosmologia é uma aplicação direta da Teoria da Relatividade Geral de Einstein, que passaremos a denominar simplesmente por TRG. Logo que Einstein completou a sua teoria ele percebeu que ela seria uma ferramenta importante na compreensão do universo. O motivo não é difícil de se entender. Hoje conhecemos apenas quatro tipos de forças ou interações físicas: as forças nucleares fraca e forte, eletromagnética e gravitacional. As forças nucleares são poderosas mas possuem campo de atração muito restrito. Elas decaem rapidamente quando se afasta das cargas e só são importantes nas proximidades no núcleo atômico. Os campos eletromagnético e gravitacional têm o mesmo tipo de decaimento com a distância mas as cargas elétricas positivas e negativas existentes em um planeta, digamos, se cancelam. A carga gravitacional, que é composta por toda e qualquer partícula com massa não nula, é única. Nas escalas do afastamento entre planetas, entre as estrelas e galáxias a gravitação é o único campo efetivo.

Quando Einstein e outros cientistas aplicaram a nova TRG ao estudo do Universo eles logo perceberam que não havia uma solução estática o que causou uma certa comoção uma vez que, com base no pensamento ocidental vigente na época, se esperava que o universo fosse eterno e imutável. Buscando tornar a solução de seu universo estática Einstein acrescentou, de forma bastante arbitrária, um termo extra às equações que descreviam a gravitação. Este termo foi denominado Constante Cosmológica e, apesar de não resolver o problema a que se destinava, teve papel importante e ainda não completamente esclarecido no estudo da cosmologia. Mesmo com a constante cosmológica o universo seria instável de forma que ele abandonou este termo dizendo que aquele havia sido o maior erro de sua vida.

Façamos uma pequena digressão para compreender melhor o que são soluções estáticas ou não estáticas para o universo. Para isto considere, por um momento, que a teoria de Newton é completamente correta (como se acreditava até a apresentação do trabalho de Einstein). Segundo a teoria newtoniana dois corpos materiais se atraem na razão direta de suas massas e inversa do quadrado da distância entre eles. Esta teoria é suficiente para explicar a maior parte das órbitas planetárias, dos cometas e dos satélites. Ela só deixa de ser válida em situações onde a atração da gravidade é muito alta, o que ocorre nas proximidades de corpos gigantes, quando passa a ser necessário utilizar a TRG. Como todos os objetos massivos se atraem, no caso de um universo finito, todos os planetas, estrelas e galáxias cairiam uns sobre os outros formando um grande aglomerado de massa mais ou menos no centro deste universo. Pode-se também imaginar um universo infinito, de forma que cada bloco de matéria tivesse a mesma quantidade de matéria por todos lados de modo a atração fique equilibrada. Neste caso, para ser estático ele teria que ser completamente homogêneo, com igual densidade em todas as partes. Qualquer pequeno aglomerado mais denso de matéria faria que que se iniciasse um processo de aglutinação. Sabemos, é claro, que o universo não é completamente homogêneo. Se assim fosse não existiram sistemas planetários, galáxias e aglomerados de galáxias como os que são hoje observados.

Concluimos portanto que, mesmo no panorama newtoniano, não é possível que o universo seja estático. Um astrônomo ou físico, de posse apenas da física clássica newtoniana, poderia ter anunciado ao mundo muito antes de Einstein que o universo deve ser dinâmico, que não pode estar em um estado de constância e permanência!

Resta uma possibilidade: o universo está de fato caindo em direção à algum ponto ou se expandindo! E esta dúvida deve ser esclarecida por meio da observação astronômica.

Edwin Hubble

A resposta foi encontrada por Edwin Hubble, entre outros astrônomos. Em torno do ano de 1919 foi concluída a construção de um grande telescópio (para os padrões da época – ele tinha 2.5m de abertura!). Até então se acreditava que o universo era constituído apenas pela Via Láctea. Hubble identificou objeto celestes, antes conhecidos como nebulosas, como sendo estruturas gigantescas de estrelas muito além dos limites da Via Láctea. De fato elas consistiam em outras galáxias análogas à nossa, e existiam em abundância. Hubble observou, por meio do chamado efeito de “desvio para o vermelho” que as galáxias estavam, em sua maioria, se afastando da nossa e que, quanto mais distantes estão, mais rápido é este afastamento. Esta observação leva a diversas conclusões interessantes: no passado toda esta massa de objetos celestes estava muito mais próxima; o universo teve um início, o momento em que a massa universal partiu em sua viagem de expansão; a temperatura do universo era muito maior no passado; e, finalmente, algum efeito produziu a expansão. é o que chamamos hoje de Big Bang ou a Grande Explosão e, com esta verificação, abandonamos a tentativa ou a esperança de encontrar uma descrição do universo consistente com um universo estático e imutável.

Voltando para a teoria de Einstein, para chegar ao chamado Modelo Padrão da Cosmologia foi necessário fazer algumas hipóteses (que, é claro, devem ser verificadas pela observação). As equações de Einstein descrevem o campo gravitacional. Diferentemente das teorias anteriores desenvolvidas na física, onde o espaço em que agem as forças e ocorrem os movimentos é tomado à priori como sendo conhecido, elas tem como solução o próprio espaço-tempo. Dito de uma forma simples e resumida a TRG associa a presença da matéria à geometria do espaço-tempo. Matéria deforma o espaço-tempo que, por sua vez, altera a trajetória das partículas que nele viajam. Estas equações são tecnicamente conhecidas como equações diferenciais, como são praticamente todas as demais equações da física, mas, diferente das equações de Newton, são não-lineares e, em geral, de difícil solução.

O primeiro passo importante para o estabelecimento de um modelo universal realista foi proposto pelos esforços conjuntos dos físicos e matemáticos Friedmann, Lemaître, Robertson e Walker (que passaremos a chamar de FLRW, para simplificar). Estes pensadores partiram da suposição inicial de que o conteúdo de massa do universo é homogêneo (ou, pelo menos aproximadamente homogêneo), isotrópico e simplesmente conexo. A homogeneidade significa que regiões distintas do universo possuem a mesma densidade, a isotropia significa que o universo tem aproximadamente as mesmas propriedades independente da direção em que se olhe. Ele é conexo se é possível, em princípio, viajar de uma região qualquer para outra qualquer sem abandonar o universo.

A homogeneidade, é claro, não é observada em qualquer escala. O sistema solar, por exemplo, é altamente inomogêneo, consistindo de um grande aglomerado de massa em seu centro, o Sol, e os planetas muito menos massivos, que orbitam a estrela central. Se observamos este sistema de um ponto cada vez mais afastado veremos que muitas outras estrelas existem na nossa vizinhança, formando a galáxia Via Láctea, que por sua vez consiste em um grande aglomerado central de corpos celestes, circundado por braços espiralados. é interessante lembrar que nosso Sol se encontra na ponta de um destes braços. Afastando-nos ainda mais perceberemos que nossa galáxia faz parte de um aglomerado de galáxias e os aglomerados se dispõem em forma de gigantescos filamentos e paredes cósmicas. A homogeneidade só é obtida, aproximadamente, em escalas ainda maiores.

A suposição de FLRW permite uma grande simplificação das equações de Einstein que passam, agora, a exibir soluções razoavelmente simples e tratáveis e que formam a base do entendimento moderno da disposição e evolução do universo. As equações que descrevem esta dinâmica, no entanto, dependem fortemente de um parâmetro que não pode ser fornecido pela própria teoria, mas deve ser medido ou observado. Este parâmetro é a densidade, a quantidade média de massa contida em cada unidade de volume. Quanto maior a densidade maior será a força de atração universal entre todos os componentes do universo. Sabemos, pela observação, que estamos em expansão. Se a densidade for acima de uma certa densidade crítica a atração será suficiente para frear a expansão e o universo se contrairá após atingir uma expansão máxima, colapsando sobre si mesmo e provavelmente caindo em direção a um gigantesco buraco negro. Se a densidade for menor que a crítica ele continuará para sempre em sua expansão pois a atração não será suficiente para fazê-lo recontrair-se. O caso intermediário, de densidade crítica, é representado por uma expansão eterna com paralização no infinito.

Uma analogia útil:

Velocidade de escape

Podemos aqui tentar uma analogia com um caso bem mais simples e concreto. Você está em um planeta qualquer e, quando olha para o céu, vê uma pedra que está subindo. Naturalmente você conclui que ela tinha velocidade mais alta no passado, já que ela está sendo atraída (e, portanto, freada) pela gravidade do planeta. Se a massa do planeta for muito grande a atração será suficiente para frear a pedra que voltará a cair no chão. Se a massa do planeta for pequena a pedra pode estar com velocidade superior à velocidade mínima para que esteja presa ao planeta e não tornará a cair. Neste caso ela voa direto para o espaço e abandona seu planeta natal. No caso intermediário é o, a chamada situação crítica, a pedra voa para fora da órbita do planeta com velocidade exatamente igual à velocidade de escape.

Alternativamente, se atirarmos uma pedra do alto de uma montanha, como ilustrado na figura ao lado, ela cairá perto da montanha se a velocidade for muito baixa ou a massa do planeta for alta (caso A) ou sairá da órbita do planeta se a velocidade for alta ou a massa do planeta for pequena (caso B). O caso intermediário ocorre quando a pedra entra em órbita, percorrendo uma trajetória circular ou elíptica (ilustrado no caso C).

Nota: Um gás que se expande rapidamente, sem trocar calor com o ambiente, se esfria, enquanto um gás que se contrai nas mesmas condições se esquenta.

Assim como acontece no caso da pedra, citado como exemplo, este modelo de mundo fornece uma descrição do que ocorreu e do que poderá ocorrer com o universo. Como quase todas as galáxias estão se afastando podemos concluir que elas estiveram muito mais próximas no passado. Com a mesma energia disponível então, o universo teve origem em uma grande explosão muito quente. As teorias relativas à materia (que envolvem principalmente a mecânica quântica e a teoria quântica de campos) prevêm que as partículas elementares foram geradas e espalhadas pelo espaço com altísimas energia.

Penzias e Wilson e a detecção da radiação cósmica de fundo.

Enquanto isto outras evidências de que houve uma Grande Explosão eram verificadas. Em 1965 dois físicos americanos, Penzias e Wilson estavam trabalhando em uma grande antena muito sensível, com o formato de um chifre, usada para pesquisa em telecomunicações. Eles então perceberam que havia um ruído na recepção da antena, ruído que, por mais que se esforçassem, não puderam eliminar. Eles procuraram apontar a antena em diversas direções, descobrindo que a radiação desconhecida não provinha da Terra, nem do Sol e nem mesmo de nossa galáxia, mas estava espalhada uniformemente por todo o espaço. Então eles ouviram falar das descobertas teóricas de que o universo poderia ter sido originado em um estado de alta densidade e temperatura e compreenderam que ela era remanescente da grande explosão. Esta radiação foi denominada Radiação de Microondas Cósmica de Fundo e hoje ela é conhecida com alto nível de precisão. A uniformidade da radição pelo espaço é uma testemunha da homogeneidade do próprio universo, principalmente na época em que a radiação foi gerada e sua distribuição (frequência versus intensidade) determina uma temperatura de 3 K (3 graus Kelvin, equivalente a aproximadamente -270 oC ). Ela, no entanto, possui ondulações ou desvios da uniformidade, em perfeita conformidade com as teorias que descrevem a formação das estruturas cósmicas, tais como galáxias e aglomerados, hoje existentes.

Esta e outras verificações observacionais favoreceram a teoria do Big Bang em desfavor de teorias alternativas, tais como a Teoria do Universo Constante (Steady State Universe) que propunha ser o universo sempre imutável em densidade e que a expansão, que não pode ser negada, era compensada por uma constante criação de nova matéria no meio intergalático. A idade do universo no modelo padrão pode ser calculada com auxílio das equações de Einstein e a partir das medidas da constante de Hubble: o universo tem de 13.5 a 14 bilhões de anos. Medidas atuais indicam uma idade de aproximadamente 13.73 bilhões, com uma incerteza de 120 milhões de anos.

História Resumida do Universo

A história do universo decorrente desta teoria pode ser resumida da seguinte forma:

A Era de Planck: nos primeiros instantes, frações mínimas de segundo após a explosão (até 10-36 segundos) o universo estava tão quente e a curvatura do espaço tão acentuada que não se pode esperar que o paradigma atualmente aceito das leis físicas se aplique. é provável que novas teorias sejam necessárias para um entendimento desta era, tais como Gravitação Quântica e Teoria de Cordas. Existem diversas especulações sobre que tipo de campo teria provocado a explosão, mas todas estas teorias estão ainda em fase de desenvolvimento. Pode-se dizer que não existe hoje um entendimento razoável da física operante na época.

A Era Inflacionária: Após este período o universo entra em sua fase inflacionária, um período em que os campos quânticos entre partículas determinam um rápido afastamento mútuo de todas as partículas existentes. Durante esta era se espera o aniquilamento da antimatéria gerada na explosão enquanto a pressão exercida pela radiação é excessivamente grande para permitir a associação de partículas elementares como os prótons e neutrons. Por outro lado a densidade da sopa primordial de partículas é tão densa que a radiação não consegue viajar livremente e se diz que matéria e radiação estão acopladas. A temperatura cai até 1015 K.

(3) É curioso observar que todos os processos de nucleosíntese conhecidos (o mecanismo de formação da matéria) indica aformação inicial apenas de hidrogênio e hélio (respectivamente números atômicos 1 e 2). Isto significa que todos os demais tipos de átomo são formados por processos posteriores, em particular no interior das estrelas, como exploraremos na seção sobre a evolução estelar!

Desacoplamento e Era Bariônica: com a queda da temperatura abaixo de 15 K a densidade de matéria se torna mais baixa e a radiação passa a viajar livremente. Neste período teria sido gerada a radiação que hoje se apresenta a nós como radiação cósmica de fundo, agora com temperatura de 3 K. Partículas elementares se agrupam em bárions (protóns e neutrons, os núcleos da matéria ordinária3) e, mais tarde, os eletrons passam a orbitar estes núcleos formando átomos de hidrogênio e hélio. Também nesta época se dá o início da formação das estruturas universais em grande escala, que futuramente darão origem às galáxias, aglomerados galáticos, filamentos, paredes e grandes vazios.

O Futuro do Universo: A história futura do Universo depende de densidade de matéria e energia nele existente. Apesar dos avanços recentes sobre o assunto, muitas dúvidas permanecem em aberto. Se a densidade de matéria fosse maior que a crítica o universo atingiria uma expansão máxima e depois voltaria a se contrair com toda a matéria se aglutinando em um gigantesco buraco negro. Literalmente “o céu cairia sobre nossas cabeças”. Já houve quem especulasse sobre a possibilidade de que, após a contração, uma nova explosão desse origem a um novo universo.

No entanto a densidade de matéria ordinária (chamada matéria bariônica, feita de núcleos com prótons e neutrons) é bem menor que a densidade crítica (em torno de 1%) e é portanto insuficiente para conter a expansão. Segundo a observação outras fontes de atração adicionais parecem existir, e este tem sido tema de intenso estudo. Existem medidas que indicam que o universo está muito próximo de sua densidade crítica, tornando-se assim necessário descobrir de onde vem a atração adicional, que não da matéria comum. Este é o chamado problema da massa faltante (missing mass).

Hoje é possível observar um objeto individual contido em uma galáxia outra que a nossa própria, e medir a sua velocidade. Ocorre que as velocidades de estrelas em torno de galáxias não obedecem as leis de Kepler, o que sugere a existência de uma matéria incomum permeando e envolvendo como um halo as galáxias. Esta é a chamada matéria escura (dark matter) que não emite luz e nem interage com a radiação emitida pela matéria comum, embora produza efeito gravitacional. Especula-se que parte da massa faltante possa ser encontrada ai. Além disto há a possibilidade que esta massa seja explicada pela presença de partículas elementares como o neutrino, que interage pouquíssimo com a matéria comum, ou pela existência de grande número de pequenas estrelas (ou grandes planetas) com uma massa insuficiente para iniciar a combustão nuclear que ocorre nas estrelas comuns e que são responsáveis pelo seu brilho. Há ainda a possibilidade de que algum efeito inerente ao próprio espaço-tempo, algo como a constante cosmológica de Einstein, que mencionamos antes, possa ser responsabilizada pela diferença da massa. De fato, medidas recentes indicam que o universo, ao contrário de estar sendo desacelerado pela atração gravitacional, como esperado, esteja sendo, pelo contrário, acelerado em sua expansão, como se ainda estivéssemos sob o efeito de algum campo inflacionário. Neste caso, ou no caso de verificarmos uma densidade abaixo da crítica, o universo se expandirá para sempre, se tornando cada vez mais frio e uniforme. De acordo com a lei da entropia as regiões de diferentes temperaturas se tornarão cada vêz mais homogêneas e não existirá diferenças de potenciais de qualquer tipo para que a matéria ou energia inicie novos processos tais como a formação de novos objetos celestes. Este é, de fato, um final monótono para o universo.

Bibliografia

Existem muitos livros bons sobre o assunto, no nível de divulgação científica. Entre eles:

  • Gleiser, Marcelo : A Dança do Universo – dos Mitos de Criação ao Big-Bang. São Paulo: Companhia das Letras, 1997.
  • ____ : O Fim da Terra e do Céu, São Paulo: Companhia das Letras, 2001.
  • Harrison, Edward :A Escuridão da Noite – Um enigma do universo, São Paulo: Jorge Zahar Editor, 1995.
  • Islam, J. N. : O destino final do universo, Rio da Janeiro: Francisco Alves,
  • Silk, Joseph : O Big Bang – A Origem do UniversoBrasília: Editora da Universidade de Brasília, 1985.
Para aqueles que procuram um conhecimento mais técnico e matemático sobre o assunto:
  • Morais, Antônio M. A. : Supernovas & Cosmologia, São Paulo: Livraria da Física, 2009.
  • ____ : Gravitação & Cosmologia, uma Introdução, São Paulo: Livraria da Física, 2010.
  • Souza, Ronaldo E. : Introdução à Cosmologia, São Paulo: Livraria da Física, 2004.

Teoria, Hipótese e Modelo em Física

Notas:(1) As relações entre modelos e sua linguagem matemática não são inteiramente claras e permanecem com tema de debate atual. Porque um modelo necessita ser expresso matematicamente? Todas as descrições da natureza e do ser humano se encaixam (ou encaixarão, um dia) dentro de modelos matemáticos? Sabemos que a matemática é uma linguagem extremamente precisa e que permite a descrição e previsão detalhadade entidades observáveis na natureza. Em geral se supõe que uma teoria ou modelo não expresso sob forma matemática está incompleto, necessitando de aperfeiçoamento. (voltar)


(2) A teoria de Newton é um exemplo de mapa ou modelo bem estabelecido como correto. Sua correção, no entanto depende da delimitação de sua região ou domínio de funcionamento. (Veja nota 3). O modelo planetário dos átomos foi útil durante algum tempo para levar à compreensão de um modelo bem mais complexo que é a descrição quântica da matéria. (voltar)

(3) Parece não ser possível construir sistemas lógicos fechados e totalmente imunes à inconsistências internas. Além disto não existe a presunção de que os modelos, mesmo os mais bem sucedidos, estejam completos e em total conformidade com a natureza. Por exemplo, a mecânica de Newton é formalmente consistente e descreve com excelente precisão o movimento de objetos na terra, de planetas e pedregulhos em órbitas no espaço, satélites de comunicação, etc. Ela não é válida, no entanto, na descrição de movimentos em altas velocidades, comparadas à velocidade da luz, ou de objetos de massa muito pequena. Nestes casos é necessário usar, respectivamente, a Relatividade Especial e a Mecânica Quântica. A Teoria da Relatividade Geral, que é uma generalização da especial, tem sido testada com ótima precisão em inúmeros experimentos. No entanto a própria teoria preve regiões ou domínios onde ela falha, como ocorre nas proximidades de singularidades tais como os buracos negros ou o big bang. (voltar)

(4) Na linguagem cotidiana é frequente se dizer: “eu tenho uma teoria para explicar tal fato”, significando que o autor da expressão tem uma hipótese ou, até mesmo, uma suposição que muitas vezes nem tem um bom fundamento. Este uso causa problemas.

Charles Darwin

Por exemplo, entre os detratores da visão de Darwin da evolução das espécies é comum se dizer que a Teoria da Evolução é “apenas uma teoria”. Em sua interpretação científica mais rigorosa uma teoria nunca é apenas uma teoria pois já passou pela peneira da consistência lógica e da experimentação (neste caso, mais da observação de fósseis e outras evidências). Os dicionários, tanto em português como em inglês, trazem as duas definições de teoria, tanto como conjunto lógico de proposições e princípios para a explicação de uma classe de fenômenos, quanto a de uma explicação tentativa e conjectural. Seria algo interessante alterar estas definições, talvez usando teoria como algo que superou o teste da verificação e conjectura ou hipótese para os demais casos. Um complicador está no fato de que modelos hipotéticos e conjecturais, quando bem sucedidos, passam a ser considerados teoria de forma contínua, na medida em que são verificados, não havendo uma delimitação muito clara entre estas categorias. Hipóteses fracassadas, no melhor dos casos, entram para a história! (voltar)

(5) Alguns pesquisadores, mesmo entre os mais sérios, incorrem no erro de, ao relatar para o público leigo suas especulações, as descrevem como se fossem teorias comprovadas. Eles dizem coisas como: “o universo não teve um início” ou “o comportamento quântico das partículas evitará que o universo tenha um fim” … etc. Por mais louvável que seja sua empolgação com a própria pesquisa é necessário lembrar que faltam ao grande público fontes confiáveis de informações sobre ciência e tecnologia. No Brasil, por exemplo, a divulgação científica é muito deficiente e uma notícia divulgada pela grande mídia quase nunca esclarece um mínimo sobre o fato que se quer relatar. (voltar)

Teoria Resumida das Cordas
A imagem foi copiada, com autorização do autor, do livro: A Matéria: uma Aventura do Espírito Luis Carlos de Menezes Livraria da Física, 2005.

Existe uma ambiguidade na terminologia moderna para tratar da ciência, em particular da Física, que dificulta a compreensão de pessoas leigas sobre os avanços mais modernos. Este ambiguidade se refere ao significado das palavras hipótese, modelo e teoria e assume diversos níveis de complexidade.

Primeiramente é necessário entender que o conhecimento científico é uma estrutura complexa feita de conceitos, definições e consequências, acumulada de modo gradual e recursivo. Do ponto de vista lógico esta estrutura deve ter tanta coerência interna quanto possível. Do ponto de vista empírico ela deve ser constantemente testada em relação a seu objeto, a natureza. O processo de aquisição do conhecimento pela ciência consistem uma interação entre o pensamento lógico formal e a experimentação.

A descrição de um fenômeno, ou conjunto relacionado de  fenômenos, assume a forma de um modelo, geralmente expresso sob forma matemática(1). Um modelo é, portanto, uma descrição ou um mapa, uma representação esquemática de algo que ocorre na natureza. O modelo(2) proposto deve ser consistente e não possuir incongruências lógicas internas, tanto quanto possível(3). Em seguida ele deve ser capaz de fazer previsões observáveis — sem as quais ele não seria científico, embora possa constituir-se em boa filosofia — e estas previsões devem ser testadas por meio da experimentação ou da observação — quando a experimentação não é acessível, como é o caso da observação astrofísica.

Modelos são normalmente apresentados como hipóteses, algo a ser verificado. A comunidade científica atual possui uma dinâmica própria de atuação que envolve grande volume de publicações, mensagens e postagens eletrônicas que circulam entre os interessados que, ao receber uma nova proposta, passam a trabalhar nela buscando por falhas ou inconsistências ou, não encontrando estas falhas, procurando explorar suas consequências. Os grupos voltados para o desenvolvimento teórico agem primeiro e os modelos considerados sólidos e promissores são passados para laboratórios e observatórios que procurarão verificar se estão corretas as previsões daquela proposta. Hipóteses verificadas e embasadas por uma formulação teórica sólida se agregam como novo bloco ao edifício científico, passando a serem consideradas uma teoria.

Infelizmente existe também o uso consagrado da palavra teoria para uma outra classe(4) de modelos que ainda estão em fase especulativa e não foram verificados sob o escrutínio da experimentação. Talvez o melhor exemplo seja o da teoria das cordas (ou string theory, em inglês). A teoria das cordas, em sua versão mais simples, parte da suposição de que as partículas elementares não são pontuais e sim cordas ou fios unidimensionais. Existem ainda modelos onde estas cordas são substituídas por membranas de duas dimensões ou mesmo por objetos com volumes, em três ou mais dimensões. Estas teorias buscam resolver dificuldades associadas ao modelo de partículas, bem representadas na teoria quântica de campos, e sua interface com a teoria da relatividade geral. Apesar de ser matemáticamente coerente e elegante, e ocupar a atenção de grande números de pesquisadores, este conjunto de modelos permanece com status especulativo. A maior parte de suas previsões só pode ser verificada para altíssimas energias, em níveis ainda inacessíveis para o estágio atual da tecnologia de aceleradores de partículas.

A física moderna está estabelecida sobre fundações sólidas e é incorreto dizer que a ciência é instável e que se altera todo o tempo. Diferente da matemática, que floresceu em grande estilo entre os pensadores gregos antigos, a física só teve seu início concreto com a contribuição de Galileu Galilei e os pensadores de seu tempo. A mecânica clássica e a lei da gravitação universal, juntas com a teoria eletromagnética e a termodinâmica constituem as teorias básicas de sua fundação. Apesar do sucesso experimental destas teorias existe uma incoerência entre a mecânica clássica e o eletromagnetismo. Da solução deste conflito surgiu a Teoria da Relatividade Especial, mais tarde ampliada para a Teoria da Relatividade Geral, a principal fundamentação teórica para a descrição da gravitação.

A experimentação impôs ainda outra alteração radical, a Mecânica Quântica, inicialmente obtida de modo inconsistente com a relatividade especial. As tentativas de se resolver esta inconsistência deram origem à Teoria Quântica de Campos, a principal base de entendimento das partículas e suas interações em altas energias. As previsões desta teoria são verificadas em laboratório com alta precisão. No entanto, ela não inclui ou considera a participação da gravitação. A busca de uma teoria quântica unificada para os campos conhecidos é bem sucedida, exceto pela não inclusão da gravitação que, por sua vez, não possui descrição quântica bem definida. Este é o estado da física atual, contendo blocos sólidos e bem verificados exceto pelo fato de que estão inconsistentes entre si, mais ou menos como ocorreu entre a mecânica de Newton e o eletromagnetismo de Maxwell.

Ainda sob o impacto do grande feito de Einstein, que obteve grande sucesso com bases quase inteiramente teóricas e filosóficas, muita especulação tem sido feita nesta área enquanto poucos resultados práticos e experimentais tem sido alcançados(5). Existem modelos hipotéticos (que evitarei aqui chamar de teorias) propondo que o universo é pequeno e dotado de topologias incomuns, ou modelos onde o universo é composto por muitas folhas (os multiversos), modelos que envolvem grande número dimensões ou espaços-tempos complexos (no sentido matemático, usando números imaginários), e muitos outros. Quase sempre estes modelos são tentativas de solução do problema da inexistênciade uma descrição quântica para o campo gravitacional.

Por outro lado grandes problemas surgem da observação, particularmente obtida por grandes telescópios como o Telescópio Espacial Hubble. O universo não se comporta como “deveria”, em acordo com as teorias aceitas, dadas a densidade de massa e energia observadas. Em grande escala ele não se desacelera como previsto — e até se acelera em sua expansão — no que consiste o problema de dark energy ou energia escura. Até mesmo em escalas muito menores que as cosmológicas, objetos em torno de galáxias não possuem as velocidades previstas — o problema de dark matter ou matéria escura. Muita especulação e um grande número de tentativas têm sido feitas por pesquisadores do mundo inteiro, na busca de solução para estes problemas. Vale no entanto lembrar que um esforço direcionado para esclarecimento do público quanto a estes esforços é uma contribuição importante para a educação e crescimento intelectual de todas as pessoas e não só daquelas que se dedicam ao estudo científico.


Hubble Deep Field. Ao focalizar uma região aparentemente vazia do céu o telescópio espacial Hubble fotografou uma grande quantidade de galáxias!