Saber quando partir

Em uma manhã fria, quando o sol apenas despontava no horizonte, dois homens desciam por um caminho estreito cortado ao longo da encosta de uma montanha. Eles aparentavam ser muito jovens e caminhavam sem esforço, apesar da encosta íngreme. O percurso estava encoberto pela neblina densa e, de onde estavam, não podiam ver o pico gelado. Mas sentiam frio. Um corrimão de madeira desgastada pelo tempo ladeava o caminho forrado por pedras, mas eles não se apoiavam nele. Carlos era o mais jovem e falou primeiro:

― Você não pode partir.

O outro, apesar da aparência, era muito mais velho. Ele respondeu:

― Talvez seja esse um bom momento para você aprender a se relacionar melhor com pessoas de sua idade.

― Já tenho bons amigos. Mas nossos diálogos são insatisfatórios. Acho que são imaturos… Além disso, Avô, você está jovem demais para partir.

O avô olhou com expressão de surpresa e um pouco de censura. Ambos sabiam que ele não era jovem. De fato ele nem era avô e sim tataravô do jovem. O neto continuou:

― É antinatural forçar uma saída prematura. E deve ser algum tipo de pecado ou crime…

― Você sabe que não acredito em pecado e que, na verdade, estaria morto há muito anos não fosse nossa capacidade antinatural de preservar a vida e a juventude. Sabe também que tive uma existência completa, com experiências intensas e variadas. Sinto que realizei tudo o que poderia ter realizado. Agora gostaria de partir. Mas preciso da sua compreensão.

― Você é o meu amigo mais próximo…

― Será que eu deveria ter me esquivado dessa amizade pelo receio de que ela terminasse um dia?

― Não… isso não! Valorizo muito os momentos que passamos juntos.

Carlos se adiantou alguns metros e parou sobre uma ponta do caminho projetada sobre a encosta, fazendo uma volta larga para contornar um lago. Em um canto algumas pedras maiores empilhadas trouxeram a lembrança de uma situação ocorrida há anos, quando ele ainda era criança. Mais tarde aquele momento assumiu uma importância incomum entre suas memórias e, por isso, as imagens estavam bem claras em sua imaginação.

Ainda criança Carlos caminhava com o avô naquela mesma encosta quando encontrou um pedregulho redondo na borda do lago de águas geladas. Apontando para a pedra ele falou: “Veja, uma prova de que já houve águas correndo por aqui!”. O avô estava afastado e, ignorando o comentário, perguntou: “Como posso mover essa pedra sem me aproximar dela?” Carlos respondeu que “não poderia usar forças nucleares, pois elas não teriam tal alcance.” “Também não seria prático usar a gravidade”, continuou, “pois necessitaria ter uma massa muito grande na vizinhança”. Só então lhe ocorreu a possibilidade de usar eletromagnetismo. O avô perguntou: “Como você faria isso?”. “Usando uma vara ou bastão… ou talvez um sopro forte de ar”, concluiu o garoto. O avô ficou satisfeito mas acrescentou: “Posso te mostrar uma forma adicional. Quer ver?” Ele então pediu ao menino que jogasse a pedra no lago, no que foi prontamente atendido. Depois disse: “Viu? Consegui mover a pedra apenas te enviando um sinal. Uma informação!” “Informação é uma forma de força?”, perguntou Carlos. “Não sei a resposta mas recomendo que você continue a estudar esse tema”, disse o mais velho.

Essas lembranças eram caras, principalmente porque depois do evento os dois passaram muitos anos dedicados a compreender a natureza da informação e sua aplicação em outras áreas do conhecimento. Mas fizeram com que ele se sentisse mais triste com a decisão do avô.

― Por que alguém em ótimo estado de saúde haveria de querer ir embora?

O avô respondeu com paciência. Ele não tomaria nenhuma decisão sem o pleno consentimento do neto.

― Porque não aprendemos a rejuvenescer a mente. Nem sei se isso é possível!

― A mente é maleável. Não consegue se ajustar? ― disse o neto em voz baixa, um pouco irritado.

O avô suspendeu a caminhada e se sentou sobre um dos degraus. O outro fez o mesmo. A neblina envolveu e depois ocupou o espaço onde antes havia movimento.

― As experiências se acumulam. Felicidade e tristeza, angústia e arrependimento. A lembrança pode não ser muito nítida mas o sentimento se acumula e oprime o coração ― disse o avô, gesticulando como se segurasse um objeto frágil no ar.

O jovem pensou um pouco e teve uma ideia que iluminou seu rosto.

― Por que você não apaga algumas memórias?

Avô pareceu ter dificuldades para confessar o que fizera.

― Eu fiz isso! As memórias podem ser apagadas mas as resultantes de seus atos não. Então você começa a viver uma vida insana onde as consequências do que você fez te alcançam parecendo surgir do nada. O mundo se torna desconexo e maluco e fica muito mais difícil aprender. É uma escolha. Para não se deprimir você tem que jogar fora a coerência de sua existência. Ele desceu mais alguns degraus e concluiu:

― Sem memória o fio fica perdido. O eu desconexo. Além disso você fica com a forte impressão de estar repetindo os mesmos erros…

O neto ponderou:

― Imagino que isso seja difícil para quem vê a vida como uma oportunidade de aprendizado.

― Claro que sim ― disse o avô, percebendo que encontrara uma boa argumentação para alterar a postura do neto.

O avô acelerou os passos, seguido de perto por Carlos. Eles caminharam em silêncio quase até o fim do percurso, na base da montanha. Ali a trilha se abria em uma clareira circular. Na borda oposta do disco havia um aparelho de vidro na forma de um cilindro.

O avô deu um longo abraço em seu neto. E sussurrou em seu ouvido:

― Você acredita que a informação é conservada no universo? Para onde vão os dados que hoje eu acumulo na descrição de quem eu sou e do que fiz?

O neto acenou com a cabeça mostrando compreender o que ouviu, e fez um sinal de consentimento. Em seguida se encontraram com várias pessoas que os aguardavam na base do monte. Eram parentes e amigos da família. Todos falavam baixo mas não mostravam tristeza.

O avô abraçou cada um, trocando palavras sussurradas ao pé do ouvido. Depois entrou dentro do cilindro de vidro. Um homem de terno escuro tomou a palavra:

― Somos feitos de resíduo estelar, restos de material forjado nas estrelas. Agora devolvemos para a Terra o pó que dela foi tirado para a formação de nosso amigo!

Uma luz azul suave brilhou dentro do tubo desligando as interações moleculares no corpo do avô. As pessoas acenaram em despedida um pouco tarde demais, quando já não poderiam ser vistas. Um jato de água lavou a poeira deixada no tubo, escoando o conteúdo para um jardim por trás do equipamento.

Em silêncio as pessoas começaram a abandonar o sopé da montanha. Algumas choravam baixinho. Carlos não chorou e decidiu voltar para a cidade pelo caminho mais longo, subindo de volta o caminho estreito que serpenteava ao longo da encosta do morro gelado.

História dos Símbolos Matemáticos

Já em 1489 os sinais \( + \mbox{ e } –\) aparecem em uma obra sobre aritmética comercial de João Widman d’Eger, publicada em Leipzig, Alemanha. Eles não se referiam, no entanto, às representações de soma e subtração, ou à números positivos ou negativos, mas a excessos e déficit em problemas sobre operações comerciais. Os símbolos para positivos e negativos só se difundiram na Inglaterra com o uso feito por Robert Recorde em 1557. Os mesmos sinais já eram usados anteriormente, como exemplifica o pintura destes sinais em barris para indicar se estavam ou não cheios. Os gregos antigos, como Diofanto, por exemplo, indicavam a soma por justaposição das parcelas, assim como ainda é feito no caso de frações, \(1^{1/2}\), por exemplo. Os algebristas italianos usavam a palavra latina plus, ou sua letra \(p\) inicial, para indicar a operação de soma.

O sinal \(\times\), indicador de um produto, é relativamente moderno. Oughtred foi o primeiro a usá-lo em seu livro Clavis Matematicae, publicado em 1631. No mesmo ano, Harriot usou um ponto entre os fatores. Em 1637 Descartes usou a pura justaposição dos termos para indicar seu produto. Nos textos mais antigos de Leibniz encontra-se o sinal \(\cap\) para indicar multiplicação e \(\cup\) para a divisão. Mais tarde ele introduziu o ponto como um símbolo para a multiplicação e dois pontos (\(:\)) para a divisão. O sinal \(\div\), segundo Rouse Ball, resultou de uma combinação de dois sinais existentes “-” e “:”. As formas \(a/b\) ou \(\frac{a}{b}\) são atribuídas aos árabes.

Na Idade Média a igualdade entre dois termos é indicada literalmente por aequalis, do latim, ou através da abreviatura est. Xulander, matemático alemão do século XVI indicava a igualdade por dois pequenos traços paralelos verticais, ||,

“bicauſe noe .2. thynges, can be moare equalle”.
Em seu primeiro livro, publicado em 1540, Record colocava o símbolo \(\psi\) entre duas expressões iguais. Mais tarde, em 1557, ele foi o primeiro a empregar os dois pequenos traços paralelos, o sinal \(=\) para indicar a igualdade. Os sinais \(\gt\) (maior que) e \(\lt\) (menor que) são devidos a Thomaz Harriot, que muito contribuiu com seus trabalhos para o desenvolvimento da análise algébrica.

O símbolo \(\infty\) para o infinito foi introduzido por John Wallis (1616-1703) em seu livro De sectionibus conicis (Sobre as seções cônicas, 1655 ). Wallis era um estudioso clássico com grande erudição e é possível que tenha se inspirado no sinal romano para o número 1000, escrito CD ou M. Também se cogita que ele tenha tido esta idéia a partir da última letra do alfabeto grego, o ômega grego minúsculo, \(\omega\), como uma metáfora para o limite superior, o fim.

Os símbolos para a operação de derivação, \(dx,\, dy\) e \(dx/dy\) foram propostos por Leibniz em um manuscrito de novembro de 1675. Newton usava a notação de fluxos \(\dot x, \dot y, \dot x /\dot y\). Esta notação é ainda usada amplamente em textos de mecânica quando a trajetória de uma partícula aparece sob forma paramétrica. Por exemplo, se descrevemos a trajetória de uma partícula por meio de sua posição vetorial \(\vec{r}(t)= \left(x(t), y(t), z(t)\right)\) então sua velocidade será escrita como \(\vec{v}(t)= \left(\dot x(t), \dot y(t), \dot z(t)\right)\).

Os símbolos \(f'(x)\) e \(f”(x)\) para as derivadas de primeira e segunda ordem respectivamente foram usados primeiro por Lagrange. Em Théorie des Fonctions Analytiques, 1797, se lê simplesmente \(f’x\) e \(f”x\), símbolos revisados mais tarde para incluir os parênteses que envolvem o argumento da função. Em 1770 Lagrange empregou \(\phi’=d\phi/dx\), omitindo por completo o argumento quando ele estava claro pelo contexto e, em 1772, \(u’=du/dx\) e \(du=u’dx\). O símbolo \(D_x y\) foi usado por Louis François Antoine Arbogast (1759-1803) em De Calcul des dérivations et ses usages dans la théorie des suites et dans le calcul différentiel.

Um delta grego maiúsculo, \(\Delta\), para indicar uma quantidade pequena ou a diferença entre funções foi usado em 1706 por Johann Bernoulli. O símbolo \(\partial\), “d curvo ”, apareceu em 1770 por sugestão de Antoine Nicolas Caritat (1743-1794) em um livro sobre equações diferenciais parciais para representar diferenciais parciais \(\partial f\), em oposição às diferencias totais \(df\). A forma \(\frac{\partial u}{\partial x}\) só foi empregada em 1786 por Legendre em um texto sobre máximos e mínimos associados ao cálculo das variações. Legendre abandonou o uso deste símbolo, só recuperado mais tarde por Jacobi em 1841. O símbolo \(\partial\) corresponde à letra dey cursiva no alfabeto Cirílico.

Para representar a integração Leibniz escrevia, no início de seu desenvolvimento, a palavra latina omnia (tudo) em frente à quantidade a ser integrada. Depois passou a escrever \(dx\) após a integração e, em carta de 1675 para Oldenburg, secretário da Royal Society, ele sugeriu o uso de \(\int\), uma degeneração de um S longo significando summa (soma). Em Quadratura curvarum, 1704, Newton usou uma pequena barra vertical \(\overline x\) para representar \(\int x dx\). Duas barras verticais paralelas, \(\overline {\overline x}\) indicava a integração dupla. Em outras ocasiões ele escrevia o termo a ser integrado dentro de um retângulo. As convenções de Newton, como se pode imaginar, davam margem a erros de interpretação e nunca se tornaram populares, nem mesmo entre seus seguidores diretos na Inglaterra.

Os limites de integração eram inicialmente indicados por palavras, não existindo um simbolismo para os designar. Euler foi o primeiro a sugerir o uso de uma notação específica, escrevendo os limites entre colchetes e escrevendo as palavras latinas ab e ad. Fourier deu a forma atual, escrevendo \(\int_a ^b f(x)dx\) para representar a integral definida, com \(x\) variando de \(a\) até \(b\). Este símbolo apareceu em um artigo da Memórias da Academia Francesa, 1819-20, reimpresso em Théorie analytique de la chaleur, 1822. O símbolo \(\oint\) para representar a integração sobre um caminho fechado parece ter sido usado pela primeira vez em 1917 por Arnold Sommerfeld (1868-1951) no periódico Annalen der Physik.

A notação de limites foi apresentada em 1786 por Simon Antoine Jean L’Huilier (1750-1840). Em seu Exposition élémentaire des principles des calculs superieurs ele escreveu: “… para resumir e facilitar o cálculo por meio de uma notação mais cômoda é conveniente escrever
$$\lim . \frac{\nabla P}{\nabla x}$$
o limite das variações simultâneas de \(P\) e de \(x\) em lugar de
$$\lim . \frac{dP}{dx},$$

de forma que as duas expressões significavam a mesma coisa. Observe que L’Huilier escrevia \(\lim\)., usando um ponto após o limite. Karl Weierstrass (1815-1897) adotou esta notação, abandonando o ponto.

Cauchy usou a letra grega epsilon, \(\epsilon\) ou \(\varepsilon\) em 1821 em Cours d’analyse, embora também usasse às vezes a letra delta, \(\delta\). Alguns autores sugerem que delta significa “ différence ” (diferença) enquanto epsilon significa ” erreur ” (erro). A primeira prova de Cauchy usando epsilons e deltas é basicamente o teorema do valor intermediário para as derivadas. Na demonstração ele traduz sua definição de que a derivada é um limite do quociente das diferenças, quando este limite existe, em linguagem algébrica usando epsilons e deltas. No entanto ele não estabelece uma relação entre \(\epsilon\) e \(\delta\), não fazendo portanto distinção entre convergência uniforme ou pontual.

O operador diferencial \(\nabla\) (nabla ou del) foi introduzido por William Rowan Hamilton (1805-1865). Inicialmente Hamilton usou este símbolo para representar uma função arbitrária, depois como o operador de permutações. Em 1846 Hamilton usou nabla, desenhado horizontalmente, como o operador diferencial vetorial. Maxwell e Riemann usavam a abreviatura grad para representar o gradiente. William Clifford (1845-1879) incorporou o termo divergência que denotava por \(\mbox{div }u\) ou \(\mbox{dv }u\). O símbolo \(\nabla ^2\) para representar o operador laplaciano foi proposto por Robert Murphy em 1883.

Devemos observar, como conclusão, que a notação usada para descrever um conceito em matemática é completamente arbitrária, não passando de convenções que podem, em princípio, ser totalmente alteradas. No entanto, temos que aprender com Leibniz que o estabelecimento de uma notação compacta, simples e de fácil leitura e manipulação é essencial para o desenvolvimento e uso de uma teoria. Além disto a padronização é essencial para que os conceitos sejam facilmente transmitidos e o ensino da disciplina seja simplificado. Com frequência, na história da matemática, uma nova teoria ou a demonstração de uma conjectura é proposta de forma obscura e de difícil leitura, sendo acessível apenas a um círculo restrito de especialistas na área. Mais tarde, dependendo da generalidade e aplicabilidade da inovação ela passa por uma série de alterações, encontrando formas mais didáticas e claras de exposição e reunindo argumentações de mais fácil acesso para a comunidade mais geral. Eventualmente, em geral após a depuração e aprimoramento teórico, a novidade surge nos livros textos e é incorporada nos currículos de ensino.


História do Cálculo

Matéria Escura (Dark Matter)

No início da década de 1930 o astrônomo suíço Fritz Zwicky estava usando um novo tipo de telescópio no topo do Monte Palomar, Califórnia, para fotografar grandes áreas do céu em tomadas rápidas e com pouca distorção. Ele construiu um grande mapa com centenas de milhares de galáxias, o Catálogo Zwicky de Galáxias. Fazendo isso ele e seus colegas descobriram que as galáxias tendem a se juntar em aglomerados. Estudando o Aglomerado de Galáxias de Coma, sob a luz das descobertas de Hubble, ele notou uma anomalia no movimentos das galáxias dentro de aglomerados.

De acordo com as leis de Newton objetos que se movem mais afastados do centro de massa a que estão ligados devem se mover mais lentamente. Este princípio se reflete em uma das leis de Kepler para o movimento dos planetas no sistema solar. No entanto Zwicky percebeu que mesmo as galáxias mais afastadas mantinham velocidades altas demais em relação à massa observada do aglomerado.

ZwickyFritz Zwicky (1898 — 1974) foi um astrônomo suíço que trabalhou a maior parte de sua vida nos EUA. Zwicky foi o primeiro astrónomo a usar o teorema do virial para fazer inferências sobre a existência da não-observada matéria escura, descrevendo-a como dunkle Materie (dark matter ou matéria escura). Ele foi também o primeiro a observar estrelas super brilhantes, que ele denominou supernovas, que se formam quando as estrelas estão em sua fase final de evolução, depois de usar a maior parte de seu combustível nuclear. Supernovas são a fonte de grande parte dos raios cósmicos que chegam a Terra e marcam a transição entre estrelas comuns e as estrelas de neutrons. Zwicky propôs a existência das lentes gravitacionais, uma consequência da teoria da gravitação de Einstein.

Mais especificamente, Zicky aplicou o Teorema do Virial que relaciona a energia potencial gravitacional com o movimento das partes de um sistema. Nas velocidades observadas as galáxias deveriam romper com a atração gravitacional exercida pelo grupo e partir em voo livre pelo espaço. Em resumo, a massa do aglomerado, deduzida à partir da observação da luz por elas emitidas, era insuficiente para explicar por que as galáxias mais afastadas do centro permaneciam ligadas ao aglomerado.

Para resolver esta anomalia Zwicky apresentou a hipótese de que grande parte da massa no aglomerado era constituída por um novo tipo de matéria, que já havia sido cogitado por outros astrônomos, denominado Dark Matter ou matéria escura. Esta matéria deveria ser diferente da usual, exercendo atração gravitacional sobre outros corpos mas não interagindo com eles de nenhuma outra forma. Naturalmente, dada a exoticidade da sugestão, algum tempo se passou até que outras evidências foram encontradas para dar suporte à hipótese e a matéria escura fosse amplamente aceita pelas astrônomos e cosmólogos.

O mesmo princípio foi usado pelo astrônomo francês Le Verrier. Percebendo anomalias no movimento de Urano ele postulou a existência de outro corpo em órbita depois deste planeta. Seus cálculos foram precisos o suficiente para que ele anunciasse a existência de Plutão, que foi observado por astrônomos na posição prevista com erro de apenas um grau. O mesmo Le Verrier também notou variações inesperadas no movimento de Mercúrio e sugeriu a existência do planeta Vulcano órbita próxima ao Sol. Nesse caso ele estava errado e o fenômeno só foi explicado mais tarde pela teoria de Einstein.
Vera Rubin foi uma astrônoma dos EUA, uma das primeiras pessoas a estudar as curvas de rotação de galáxias espirais. Ela mostrou que a velocidade de rotação das estrelas afastadas do centro galático é muito maior do que o esperado se considerarmos apenas a matéria visível. Considera-se que a discrepância pode ser explicada pela existência da matéria escura.

Em 1965 a astrofísica americana Vera Rubin estava trabalhando com amplificadores eletrônicos de luz que permitiam a coleta rápida de espectros de emissão de galáxias. Ela estudava a rotação de galáxias como Andrômeda, nossa vizinha, e descobriu coisas interessantes e inesperadas. Com esses aparelhos sensíveis ela obteve as curvas de rotação para objetos dentro da galáxia.

Galáxias espirais possuem longos braços que giram em torno do centro galático. A densidade de massa luminosa decai quando de afasta do centro em direção às bordas. Estrelas (e outros objetos) mais afastadas deveriam ter velocidades cada vez menores, de acordo com a segunda lei de Kepler, da mesma forma que acontece com os planetas no sistema solar. Mas, como observou Rubin, isso não ocorre. Surpreendentemente as velocidades ficam quase inalteradas com o distanciamento do centro. Esse efeito pode ser explicado postulando a existência de um halo, algo como uma bola oca gigante envolvendo a galáxia, feito de algum material com atração gravitacional. O problema está em que esse halo não aparece nas fotos dos telescópios nem nas imagens geradas pelos radiotelescópios.

Intrigados com a observação, Rubin e vários outros pesquisadores começaram a coletar dados sobre outras galáxias e, em todos os casos, o mesmo fenômeno foi verificado. Mais uma vez se levantou a hipóteses de que existe um agente de atração não detectado dentro do conjunto estudado. Rubin estimou que deveria existir em torno de 6 vezes mais massa do que a observada por meios luminosos.

Curvas de rotação na galáxia
Curvas de rotação de estrelas dentro da galáxia Messier 33. A linhas tracejada mostra as velocidades em função da distância do centro para a galáxia constituída apenas por matéria visível. A curva superior, contínua, mostra as velocidades de fato observadas. Os primeiros pontos são obtidos na faixa de luz visível, os demais na radiação de 21cm do hidrogênio.
Dark Matter (artístico)
Imagem artística da possível densidade de matéria escura na Via Láctea.

Hoje pelo menos três tipos de observações independentes confirmam a existência da matéria escura. A velocidade das galáxias em aglomerados ou de estrelas dentro das galáxias, a emissão de raios-X pelo gases que permeiam os aglomerados e as lentes gravitacionais. Por todos esses meios se constata que em torno de 80% da massa dos aglomerados, em média, é formada por um tipo de matéria exótica que não emite luz nem nenhuma outra forma de radiação eletromagnética detectável.

Lentes Gravitacionais

De acordo com a Teoria da Relatividade Geral (TRG) de Einstein a presença da matéria deforma o espaço em torno dela. Um feixe de luz, emitido por uma estrela distante, passando perto do Sol, por exemplo, se desvia fazendo com que a estrela pareça estar em outro ponto no céu. Esse efeito foi usado em 1919, Sobral, nordeste do Brasil, para prover a primeira verificação observacional da TRG. Aproveitando-se de um eclipse solar astrônomos ingleses puderam mostrar que o desvio da luz era compatível com aquele previsto na teoria de Einstein.

Cinco imagens com aparência de estrelas aparecem quando a luz de um único quasar passa por uma lente gravitacional. Telescópio Hubble, NASA.

Zwicky já havia proposto que seria possível usar um aglomerado de matéria no espaço como lente gravitacional, uma vez que o espaço deforma a luz que foi emitida por trás. Essas lentes são observadas através de efeitos peculiares, tais como a formação de imagens múltiplas de um mesmo objeto ou arcos e anéis formados por deformação da imagem. Através das medidas de distorção é possível se calcular a massa da lente, o objeto que causou essa distorção. Desta forma é possível confirmar que existe uma deformação maior do que aquela que seria causada apenas pelos objetos luminosos, o que vem a fortalecer a hipótese de que existe matéria escura presente nesse objeto.

Evidência Cosmológica

Edwin Hubble observou que a maioria das galáxias estão se afastando de nós e que quanto mais distantes elas estão maiores suas velocidades. O afastamento é percebido pelo desvio para o vermelho da luz por elas emitidas.

Outra indicação importante de que a matéria escura realmente existe é dada pela cosmologia. A Teoria do Big Bang, a mais amplamente aceita na atualidade, é uma aplicação direta da TRG sob a hipótese de que o universo é bastante uniforme, em grandes escalas. Dependendo da densidade de massa nesse modelo a geometria universal assume uma das três formas possíveis de espaços homogêneos (igual em todos os pontos) e isotrópicos (igual em todas as direções). Se a densidade de massa no universo (massa dividida pelo volume) for acima de um certo número crítico o universo seria formado por seções esféricas (ou seja, a cada momento ele seria uma hiper-esfera de 3 dimensões, de curvatura positiva). Se a densidade for abaixo do número crítico o universo teria seções como selas (de curvatura negativa). Mas a observação não mostra curvatura mensurável indicando que estamos exatamente sobre o caso crítico de um universo com densidade tal que o espaço contém seções planas, de curvatura nula. No entanto a massa visível, observada em estrelas e galáxias e todos os demais corpos luminosos, é bem inferior a essa massa crítica, o que leva a crer, mais uma vez, que grande parte dela está sob a forma de matéria escura.

No modelo padrão das partículas elementares a matéria bariônica é toda aquela composta por prótons, neutrons e elétrons, como a matéria ordinária que conhecemos. No modelo cosmológico do Big Bang a maior parte da matéria bariônica foi formada por hidrogênio e um pouco de hélio. Os elementos mais pesadas foram formados mais tarde, no interior das estrelas e nas explosões de supernovas. Uma hipótese é a de que a matéria escura seja não bariônica, como veremos.

Outra consequência observada do Big Bang é a chamada radiação cósmica de fundo, um resíduo deixado pela radiação inicial de alta temperatura. Com a expansão essa radiação se encontra hoje muito mais fria, aproximadamente de 3ºC, com vibração na faixa de micro-ondas. Ela pode ser mapeada com precisão, sendo uniforme o bastante para embasar o modelo cosmológico padrão, mas possuindo granulação suficiente para a geração das estruturas formadas mais tarde, como galáxias, aglomerados e filamentos. A matéria escura e a ordinária não se comportam da mesma forma com a expansão do espaço. Embora as duas interajam gravitacionalmente, a matéria bariônica (ordinária) passou por um período de interação forte com a radiação nos momentos primordiais da evolução. Essas interações alteram a forma como a granulação inicial evoluiu mais tarde formando estruturas. A observação do universo hoje, comparado com as granulações da radiação de fundo, corrobora a hipótese de que grande porção da massa hoje existente é formada por matéria escura.

Penzias e Wilson descobriram a radiação cósmica de fundo.

Boa parte da pesquisa moderna em astronomia se concentra na busca dessa matéria e sua natureza permanece em debate. Inicialmente se considerava que essa matéria fosse formada por estrelas frias e pouco brilhantes, por planetas escuros e errantes, por gases ou por corpos macroscópicos ou não, espalhados no meio intergalático. Houve a sugestão de que buracos negros poderiam ser abundantes a ponto de fornecer essa massa oculta. Mas, se esse fosse o caso, os atuais buracos negros seriam feitos de matéria ordinária antes que estas estrelas colapsassem. Toda essa matéria ordinária estaria presente nos primeiros momentos do universo, o que estaria em discordância com a quantidade de matéria escura esperada pela análise da radiação cósmica de fundo.

Buracos negros são formados por estrelas de grande massas, quando seu combustível nuclear é esgotado. O gás estelar é comprimido para volumes pequenos até que a densidade seja tão alta que nem a luz pode escapar de sua atração gravitacional.

Teoricamente um tipo diferente de buraco negro pode existir e estas entidades hipotéticas foram consideradas como partes de matéria escura. Buracos negros primordiais podem ter sido criados no início do universo quando a própria matéria comum estava se formando. Eles poderiam ter se originado de flutuações do espaço-tempo logo após o Big Bang, fortes o bastante para aglomerar blocos de massa em um volume muito pequeno, formando buracos negros diminutos. A modelagem computacional sugere que eles poderiam ter massas bem pequenas e poderiam ser responsáveis por parte do efeito atribuído à matéria escura. Em 2018 foi realizada uma pesquisa em 740 supernovas em busca de efeitos de lentes gravitacionais causadas por esses objetos e o resultado indica que eles não podem explicar mais que 40% do efeito da matéria escura. Pelo contrário, surgiram indicações de que esta não é uma boa hipóteses e que buracos negros primordiais não contribuem nessa questão. Além disso não existem evidências de eles existam de fato.

Portanto a hipótese da matéria escura como constituída por matéria ordinária entra em conflito com o que é observado e nenhum dos modelos propostos foi capaz de explicar as anomalias observadas. A teoria mais aceita é a de que esta matéria é não bariônica, o que significa que não é composta de prótons e nêutrons como a matéria ordinária que conhecemos. A primeira possibilidade consiste em explorar os neutrinos.

Neutrinos

Primeira observação de um neutrino colidindo com um próton em uma câmara de bolhas (colisão ocorre no ponto onde os três riscos à direita da foto).

A existência dos neutrinos foi proposta em 1930, 26 anos anos de sua detecção experimental. Durante o decaimento beta a força nuclear fraca, dentro do núcleo atômico, quebra um nêutron em um próton mais um elétron, que é ejetado do átomo. Apesar de que a carga criada no próton (+) fica balanceada pelo elétron (-), Wolfgang Pauli notou que seria necessária a criação de outra partícula para equilibrar a energia, o momento linear e o momento angular do átomo inicial.

Curiosamente o neutrino foi proposto 2 anos antes da descoberta do nêutron, por James Chadwick. Neutrinos possuem massa, portanto tem efeito gravitacional, mas não interagem por meio da força eletromagnética.Neutrinos são difíceis de serem detectados.

Hoje, com o avanço da tecnologia, é possível saber se um neutrino foi emitido pelo Sol, por outros objetos no sistema solar ou na Via Láctea, ou mesmo por fontes fora de nossa galáxia.

Uma das hipóteses feitas para solucionar o mistério da matéria escura consiste em apelar para o Modelo Padrão de Partículas da física. Neste modelo, que é muito bem sucedido na explicação das partículas conhecidas, existem os neutrinos, partículas estáveis (de longa vida) que não interagem com outras partículas por meio do eletromagnetismo nem das interações nucleares fortes. Neutrinos atravessam grandes amontoados de matéria (como o planeta Terra, por exemplo) sem sofrer alterações. O modelo dos WIMPs (weakly interacting massive particles, partículas massivas de interação fraca) inicialmente considerou neutrinos formados no início do universo, deixados como resíduos da grande explosão inicial, como os responsáveis pela atração da matéria não luminosa.

Na década de 1980 as simulações numéricas realizadas em computador começaram a ganhar importância no estudo da evolução do universo e da formações de estruturas, como galáxias, aglomerados e grandes filamentos cósmicos. No modelo padrão é predito que os neutrinos foram formados com altíssimas velocidades, comparáveis (mas inferiores) à velocidade da luz. De acordo com as simulações estas partículas quentes (por que muito velozes) favoreceriam a formação inicial de estruturas muito grandes que apenas mais tarde se quebrariam em blocos menores, formando coisas tais como as galáxias.

Em contraste, partículas mais frias (lentas) estimulariam a formação de pequenos aglomerados de matéria, que bem mais tarde se fundiriam formando estruturas maiores. Comparando estes resultados teóricos com as estruturas observadas se descartou a predominância de neutrinos super velozes na composição da matéria escura. As simulações deixaram claro que pelo menos uma partícula desconhecida, não presente no modelo padrão de partículas, deveria existir.

Uma outra partícula proposta para explicar efeitos da matéria escura são os áxions, partículas ainda não detectadas, por enquanto apenas uma conjectura teórica proposta para resolver outro problema existente na cromodinâmica quântica. Se existirem eles interagiriam pouco com a matéria comum e radiação, teriam massa bem pequena. Eles poderiam, no entanto, existir em quantidade suficiente para explicar os efeitos da massa desaparecida.

Gravitação Alternativa

Em 1983 o astrofísico Mordehai Milgrom sugeriu um mecanismo alternativo para explicar as anomalias observadas nos movimentos galáticos. Ou invés de buscar fontes desconhecidas de atração gravitacional ele optou por sugerir alterações na teoria gravitacional. Sua hipótese foi denominada Dinâmica Newtoniana Modificada (Modified Newtonian Dynamics) ou MOND.

A gravitação Newtoniana está muito bem verificada na escala de experiência cotidiana, em experimentos feitos na Terra. Não há garantia absoluta de que ela continua funcionando da mesma forma em escalas galáticas. Assim como a Gravitação de Einstein se reduz à Newtoniana para a escala cotidiana, Milgrom propôs uma teoria alternativa que age um pouco diferente em grandes escalas.

Algumas galáxias parecem se movimentar em bom acordo com a teoria MOND mas ela não resolve todos os problemas. Resta, no entanto, explorar outros modelos, com novas descrições da gravitação, até que todas as anomalias fiquem bem explicadas.

Conclusão

Imagem 3D da distribuição de matéria escura pelo universo observável. O mapeamento foi feito por meio de lentes gravitacionais, pelo Telescópio Espacial Hubble.
Existe também o problema não resolvido da energia escura que causa efeito contrário ao da matéria escura, impulsionando galáxias e aglomerados para que se acelerem no movimento de expansão. Esse assunto será tratado em outro artigo neste site.

A questão da natureza da matéria escura e da energia escura permanece em aberto, juntamente com muitos outros problemas importantes ainda não foram resolvidos pela ciência. Pela própria natureza da investigação científica cada resposta obtida abre um leque de dúvidas e caminhos para futuras pesquisas. O tema é de grande interesse porque, entre outras coisas, ele pode levar a uma expansão da física para novos domínios, da mesma forma que a mecânica quântica e a relatividade expandiram a física clássica. Se existem partículas fora do modelo padrão de partículas então uma nova física tem que ser desenvolvida para acomodá-las.

Observatório de Ondas Gravitacionais por Interferômetro Laser (em inglês: Laser Interferometer Gravitational-Wave Observatory – LIGO) é um projeto que busca detectar ondas gravitacionais de origem cósmica.

Novos detetores e novas táticas de busca são desenvolvidos a todo momento para tentar verificar ou descartar alguma hipótese. Em outubro de 2017 o Observatório LIGO conseguiu detetar ondas gravitacionais geradas pela interação de duas estrelas de nêutrons girando em órbitas muito próximas e espiralando para seu centro de massa. A observação dessas ondas abre uma nova página na investigação do cosmos e deverá ser usada também para testar hipóteses sobre a matéria escura, em particular a existência de buracos negros primordiais.

É possível que a anomalia observada (o problema da matéria escura) seja devida a erros nos pressupostos cosmológicos, sendo o principal deles considerar que o universo é uniforme, aproximadamente igual em todas as direções e em todas as partes. No estado atual do conhecimento é impossível descartar que nossa posição no universo seja de alguma forma incomum, nos dando uma falsa visão de como seria o todo. Também é possível que uma nova forma da interação gravitacional seja válida para escalas cósmicas, ou que existam forças desconhecidas, além das quatro forças fundamentais. Também devemos nos lembrar que os dados obtidos nessa área são difíceis de se obter e analisar. Mesmo assim grande parte dos cosmólogos e astrofísicos defende que existe a matéria escura. Aqueles que acreditam em coisas diferentes estão propondo teorias alternativas, nenhuma delas ainda com sucesso.

A própria existência de um problema tão importante sem solução até o momento torna a pesquisa ainda mais interessante. A ciência é uma aventura com desdobramentos inesperados. Pessoas no mundo inteiro se unem e trabalham na solução desses problemas. Infelizmente, o processo científico se torna cada vez mais especializado e inacessível para pessoas sem treinamento específico. Para isso servem artigos (como este) e livros de divulgação. A aventura é coletiva e deve ser partilhada com todos.

Bibliografia

Clegg, Brian: Dark Matter & Dark Energy, Icon Books, Agosto 2019.

Bertone, Gianfranco; Hooper, Dan: A History of Dark Matter https://arxiv.org/abs/1605.04909 (16 May 2016).

Panek, Richard: The 4% Universe, Dark Matter, Dark Energy, and The Race to Discover the Rest of Reality, HMH Books & Media, New York, 2011.

Science History: Fritz Zwicky and the whole Dark Matter thing
https://cosmosmagazine.com/physics/science-history-fritz-zwicky-and-the-whole-dark-matter-thing

Se todos fossem iguais a você


Se todos fossem iguais a você
que maravilha viver (…)
amar sem mentir nem sofrer
existiria verdade, verdade que ninguém vê
se todos fossem no mundo iguais a você
Vinicius de Moraes

O trânsito estava congestionado naquela tarde de sexta-feira. Luan viu que os veículos a sua frente se desaceleravam. Percebendo que dois veículos lentos se aproximavam pela esquerda ele fez uma manobra repentina, se encaixando com perfeição entre os dois carros. Depois, ignorando a irritação dos motoristas, ele apontou para baixo a dianteira de seu auto, abandonando a altura normal da via e saindo na frente de todos os demais veículos em alta velocidade. Ele riu satisfeito com sua manobra precisa até perceber que um vigilante de trânsito voava por cima dele sinalizando para que aterrizasse fora do fluxo das outras aeronaves.

O vigilante se aproximou devagar olhando para Luan com jeito de estar se divertindo:

─ O senhor viu o que fez na via?

Desconcertado por ter sido pego ele respondeu:

─ Claro que sim. Mas eu estava em total controle de meu veículo!

─ Onde você aprendeu a dirigir desta forma?

─ Sou piloto desde criança … dirijo veículos terrestres, naves domésticas e agora estou em treinamento de pilotos para vôos comerciais e fora da atmosfera.

─ Você dirige bem! ─ disse o policial, ainda sorrindo. ─ Mas… não te ocorre que pode encontrar pela frente pessoas com menor habilidade e provocar um acidente grave?

Luan ficou calado. O policial pensou um pouco e decidiu não aplicar nenhuma multa. Mas rabiscou um código em um cartão e o entregou ao jovem motorista. Era uma convocação de comparecimento obrigatório em uma sessão de treinamento em simulador de vôo. Humilhado, Luan abaixou a cabeça, retornou para seu veículo e fez uma decolagem lenta e comportada, voltando para a via.

Ele se considerava um excelente motorista e sempre imaginava como seria bom se todos os motoristas dirigissem da mesma forma que ele, em velocidade e com movimentos precisos. Que bom seria se não existissem motoristas de fim de semana, muitas vezes gente idosa que insistia em viajar usando apenas as rotas automáticas.

No dia marcado Luan compareceu ao centro de treinamento onde foi recebido por uma senhora que o atendeu de modo burocrático. Ela leu o código no cartão, apontou para uma das salas e explicou:

─ Este simulador usa tecnologia de leitura em tempo real de seus padrões cerebrais e musculares. Ele vai se adaptar ao seu modo de pilotar para que você corrija seus maus hábitos no trânsito.

Luan riu sem demonstrar. O que poderia aprender com aquela máquina boba? Ela apenas continuou a explicação:

─ Você fará duas viagens. Na primeira você deve dirigir em conformidade com todas as regras de trânsito, nas velocidades nominais das vias. Os demais motoristas simularão a atitude média dos pilotos de nossa comunidade, incluindo suas habilidades, deficiências e limitações. Em seguida você terá o vôo livre para fazer o que quiser. Pode usar o piloto automático, pode desabilitá-lo. Você decide. A maioria dos demais pilotos se comportarão exatamente como você, de acordo com a leitura prévia que o simulador fará de seus dados biométricos. A sessão será gravada mas não poderá ser usada contra você caso exista algum processo judicial. Alguma dúvida?

─ Nenhuma, ─ ele respondeu, ansioso para começar.

A máquina tinha um formato elegante e sofisticado mas Luan a considerou desconfortável. O espaço era pequeno e repleto de monitores. Em um deles ele escolheu um destino qualquer. Na primeira simulação ele se viu dentro de uma pista comum rodeado por muitos veículos e se sentiu entediado, preso entre tantos autos que viajavam de forma suave, quase todos em piloto automático. A tranquilidade só era ocasionalmente quebrada quando algum motorista mais afoito, provavelmente jovens como ele, passava em alta velocidade. Eles se inseriam em brechas estreitas e forçavam os demais veículos a diminuírem ou aumentarem a velocidade para evitar colisões. Luan descobriu, surpreso, que a maioria dos pilotos nunca ultrapassava a velocidade máxima permitida e o trânsito era, no geral, tranquilo e ordenado. Aliviado ele viu que já se aproximava do destino. Aparentemente nada tinha aprendido com aquela experiência.

Um sinal sonoro informou que estava se iniciando a segunda fase. Imediatamente ele desligou o piloto automático e iniciou a descida, pensado em escolher nova rota. Neste momento um garoto, muito jovem pelo que pode ver à distância, forçou a reentrada na sua frente, tentando chegar antes dele ao solo. Luan foi forçado a freiar de forma abrupta, mal conseguindo evitar a colisão. Atrás dele uma mulher idosa se esforçava para manter o alinhamento da nave com o solo. Para não colidir ela desviou para o lado, atingindo alguém que estava em processo de decolagem. O veículo que partia ricocheteou para o alto, entrando na via repleta de outras naves em alta velocidade.

A cabine do simulador ressoou com um estrondo forte. Houve algumas explosões, por certo muita gente ferida. Luan desviou o olhar, reafirmando mentalmente que tudo aquilo era apenas uma simulação. A mesma senhora que o havia recebido inseriu a mão na cabine, desligando o aparelho. Depois ela o tirou de dentro do simulador dizendo algumas palavras para o tranquilizar. E disse:

─ É surpreendente o que essas máquinas podem nos ensinar, não?

Luan saiu pensativo. Em seu telefone recebeu o relatório da experiência no simulador: “seriam três pessoas mortas e várias com ferimentos graves”. “E um alto custo material”. Ao final do texto ele leu uma nota em negrito: “98% de chance de que o paciente aprendeu a sua lição!”

O Futuro da Inteligência Artificial

Expectativa e Desafio Futuro

No campo das expectativas para um futuro muito próximo podemos mencionar as interfaces entre cérebro e computador mediadas por IAs, conectados à máquinas externas tais como exoesqueletos. Esses sistemas estarão disponíveis para pacientes com acidentes cérebro-vasculares, com traumas, doenças neurológicas, ou simplesmente como uma extensão de habilidades de uma pessoa saudável.

Nenhuma nova tecnologia é introduzida sem apresentar simultaneamente problemas e desafios em seu uso. Estima-se que um número relevante de empregos será perdido para a automação inteligente. Diferente das máquinas mecânicas, que substituíram o trabalhador braçal, agora é razoável considerar que computadores farão o trabalho de profissionais com níveis mais elevados de qualificação. Investimento em equipamentos, e não em pessoas, provavelmente aumentará o problema do desemprego e da concentração de renda.

O uso das máquinas para recomendações de conteúdo, por exemplo, tem se mostrado problemático em algumas plataformas. Buscando atrair a atenção do usuário e mantê-lo por mais tempo conectado e fidelizado as redes apresentam como sugestões conteúdos cada vez mais contundentes, muitas vezes envolvendo violência e intolerância. A indicação de conteúdo de fácil aceitação, em geral aprovado por muitos usuários, tende a esconder aqueles de menor circulação ou de gosto mais elaborado. Como resultado se observa a tendência de uniformização e formação de guetos, com a consequente inclinação à radicalização e intolerância. Junta-se a isso a facilidade para a geração inteligente de imagens, áudios e vídeos falsos que torna as campanhas de desinformação ainda mais nocivas e de difícil deteção.

Os problemas envolvendo a indústria da propaganda nos meios virtuais ficam exacerbados pelas práticas ilegais e imorais do roubo de dados. Dados se tornaram um produto valioso e a ausência de uma legislação atualizada estimula a prática da invasão de computadores e telefones pessoais e corporativos. Redes sociais importantes já foram flagradas vendendo informações sobre seus usuários que são usadas para o mero estímulo ao consumo ou para o atingimento de metas políticas muitas vezes obscuras e antidemocráticas.

A habilidade das IAs de reconhecer texto escrito e falado e extrair conteúdo das linguagens naturais agrava a ameaça à privacidade. Uma espionagem feita pelo microfone de um celular pode não apenas indicar que tipo de propaganda deve ser oferecida ao usuário mas também revelar traços que essa pessoa gostaria de manter privados, tais como traços de comportamentos íntimos ou a presença de uma doença.

Questões éticas, usualmente difíceis, ficam mais complexas na presença de IAs. Quem deve ser responsabilizado se um médico autômato comete um erro em seu diagnóstico ou procedimento? Quanta autonomia se pode atribuir à um juiz máquina ou a um automóvel auto-guiado? É aceitável permitir que um drone armado dispare contra um grupo que ele considera perigoso?

Provavelmente a afirmação do falecido físico Stephen Hawkings de que “O desenvolvimento de uma inteligência artificial completa pode determinar o fim da raça humana” seja pessimista em excesso.

É inegável, no entanto, que vigilância e responsabilidade devem ser elementos comuns no uso de toda nova tecnologia.

Referências

CHOLLET, F.. Deep Learning with Python. Nova Iorque: Manning Publications Co., 2018.

GOODFELLOW, I.; BENGIO, Y.; COURVILLE, A. Deep Learning: Cambridge, MA : MIT Press, 2017.

UNESCO. Artificial Intelligence in Education: Challenges and Opportunities for Sustainable Development, United Nations Educational, Scientific and Cultural Organization, Paris, 2019.

Inteligência Artificial

Onde o Aprendizado de Máquina é usado?

Máquinas treinadas podem ser empacotadas em aplicativos para computadores, telefones celulares ou circuitos com processadores que podem ser inseridos em outros equipamentos maiores, como automóveis e aviões, ou simplesmente serem carregados com o usuário.

Bons exemplos são os programas de busca e remoção de vírus de computadores e programas espiões que visam o roubo de dados pessoais ou corporativos. Novos vírus são disseminados a todo momento mas a maior parte de seu código replica o de vírus já detectados e combatidos. Sistemas inteligentes podem prever com boa exatidão quando um código representa um ataque ou, caso contrário, informar sobre possíveis riscos que ele representa. Da mesma forma um servidor de correio eletrônico (email) pode processar as mensagem recebidas e seus anexos em busca de spams, vírus, mensagens enviadas por remetentes cadastrados como perigosos ou prever outras anomalias.


Procedimentos de segurança de pessoas ou grupos podem ser automatizados. Filas de aeroportos ou de ingresso a um evento público de grande comparecimento podem ser varridas por meio de câmeras que localizam faces cadastradas em listas de criminosos ou encontrar outras características suspeitas que seriam de difícil identificação por funcionários humanos.

A análise de séries temporais, dados coletados ao longo do tempo, submetidas ao treinamento de máquina pode, em muitos casos, permitir a previsão de eventos futuros ou a inferência retrógrada de períodos passados que não foram documentados. Dois casos de interesse evidente são as previsões meteorológicas e da flutuação de mercados e bolsas de valores. Em ambos os casos as previsões automatizadas estão sendo rapidamente aprimoradas e os resultados cada vez mais úteis. A previsão meteorológica, por exemplo, permite o planejamento de ações de defesa ou de emergência em casos de tempestades. Empresas voltadas para as aplicações financeiras têm conseguido sucesso relevante nessa previsão, o que se reflete em lucro. Bancos e outros agentes financeiros usam a IA para previsão de comportamento de clientes, para sugestões de investimentos e prevenção de fraudes.

Um exemplo não óbvio da análise de séries temporais está nos aplicativos de reconhecimento de voz. Conversão direta de voz em texto ou vice-versa, de tradução ou de uso nos chamados assistentes pessoais, tais como o Alexa do Google e Siri da Apple são aplicações deste tecnologia. Através desses assistentes o usuário pode acionar outros aplicativos em seu aparelho pessoal, escolher músicas, enviar emails, entre outras funcionalidades.

A análise automática de textos já é usada nos tribunais brasileiros para triagem e encaminhamento de processos. Muitas questões estão em aberto no que se refere ao uso desses sistemas e se torna necessário discutir a inserção do assunto nos currículos de ensino de Direito.

O reconhecimento de significado de texto representa uma parte importante dos aplicativos de IA. Chatbots são aplicativos que simulam uma conversação com o usuário, fazendo pesquisas de opinião e preferência, sugerindo um procedimento para o usuário ou escolhendo o atendente humano que melhor responderá a suas demandas. A análise automática de um texto pode discriminar o estado de humor de quem o escreveu e sugerir a ele uma página na web de seu interesse ou um produto que ele esteja inclinado a consumir.

Muitas desta aplicações podem, e de fato o fazem, se beneficiar de um acesso direto à informação obtida por meio de sensores de natureza diversa, principalmente quando estão conectados à internet e transmitem dados em tempos real. Exemplos disso são as leituras de GPS (Global Positioning System ou Sistema Global de Posicionamento) que permitem a exibição de mapas de trânsito atualizados a cada instante, exibindo rotas de menor tráfego ou pontos de congestionamentos. Usando estes sistemas associados a diversos outros sensores, todos analisados por IA, automóveis autônomos podem circular pelas ruas das cidades provocando um número de acidentes inferior àqueles provocados por motoristas humanos. Da mesma forma um drone pode entregar produtos adquiridos remotamente diretamente nas mãos do consumidor.

Baseados na interação que fazemos com as páginas das chamadas rede sociais é possível a captura muito precisa de personalidades, gostos e tendências de um usuário, o que é usado pelos agentes de mídia para veicular propaganda de consumo, de comportamento ou política. Os provedores de conteúdo áudio-visuais, tais como o Netflix, o Youtube e Spotify, usam IAs para acompanhamento dos hábitos de seus usuários para indicar novos acessos à filmes, músicas ou outros produtos de qualquer natureza.

As aplicações de máquinas inteligentes são particularmente animadoras no campo da saúde, em especial para diagnósticos por imagem. Doenças de pele ou dos olhos, ou células cancerosas podem ser detectadas por meio da análise de imagens, muitas vezes com precisão superior à obtida por um técnico humano. O estudo do registro médico pormenorizado de um paciente pode indicar tendências e sugerir formas viáveis de tratamento.

Usuários dos jogos de computadores também são expostos à decisões de máquinas rotineiramente. A industria dos jogos foi uma das primeiras a se aproveitar desta tecnologia e muitos jogos lançam mão de IA para tomadas de decisões e para a animação de personagens virtuais que povoam os mundos de fantasia dos jogos.

Telescópio Espacial kepler – representação artística

A inteligência artificial, com sua habilidade de análise de grande volume de dados, é um recurso poderoso na pesquisa científica. Um exemplo brilhante dessa faceta foi a descoberta anunciada pela NASA em março de 2019 de dois exoplanetas por meio de um algoritmo chamado AstroNet-K2, uma rede neural modificada para o estudo dos dados colhidos pelo telescópio espacial Kepler.

IA e Educação

A Educação é um setor tradicionalmente refratário às novas tecnologias e as novidades demoram para entrar na sala de aula. Apesar disso muitas propostas envolvendo IA têm surgido, algumas delas já em aplicação.

O professor hoje compete na atenção dos alunos com uma variedade de estímulos eletrônicos, jogos, páginas da web interativas e ambientes de interação social. Qualquer sistema educacional no presente e futuro próximo deve oferecer estímulo similar ao encontrado nesses meios, buscando dialogar com os alunos no ambiente de interatividade digital com que estão bem familiarizados.

Ainda que os computadores já sejam, há algum tempo, utilizados no manejo da burocracia escolar, sistemas inteligentes podem agilizar esse processo. Professores gastam boa parte de seu tempo em atividades burocráticas, não relacionadas com o ensino em si. A avaliação de exames e o preenchimento de formulários, o acompanhamento de frequências às aulas, o contato permanente com pais e responsáveis e o controle de estoque de material escolar, todas são tarefas que podem ser facilitadas com o uso de IA. O mesmo ocorre com o gerenciamento de matrículas, formulação de calendários e manejo de pessoal. Para o aluno um assistente escolar pode agendar compromissos virtuais ou não, acompanhar a rotina de estudos e contato com professores.

É no campo puramente acadêmico, no entanto, que se pode esperar os melhores resultados. Sistemas inteligentes tem sido treinados para a personalização com ajuste super fino de ementas e fluxos de estudo para o indivíduo, levando em conta suas habilidades e deficiências. Com a adoção de textos eletrônicos a informação antes contida em grandes volumes de papel pode ser, de modo simples e de baixo custo, fragmentada em guias menores de estudos, contendo blocos lógicos completos com referência a recursos multimídia e conteúdo expandido. Sistemas de IA podem fornecer uma interface interativa capaz de responder perguntas ou indicar referências visando esclarecer pontos pouco compreendidos. Uma IA pode auxiliar o professor inclusive por meio de diálogos falados, resolvendo dúvidas e ajudando na solução de exercícios, enquanto a análise de imagens capturadas por câmeras pode indicar o nível de concentração ou dispersão dos estudantes.

Associada ao uso da apresentação dinâmica de conteúdo um sistema treinado por IA e subsidiado por avaliações permanentes e automáticas de desempenho pode indicar o melhor roteiro, as necessárias revisões e ritmo do aprendizado. Tutores automáticos podem acompanhar e sugerir o ritmo de estudo de um estudante. A avaliação permanente, além de tornar desnecessária a temida temporada de provas, avaliará o nível atual de conhecimento do aluno, insistindo em exemplos e exercícios caso um conceito não esteja bem assimilado através da apresentação de questões com níveis crescentes de dificuldade, sugerindo o retorno para níveis mais básicos ou a progressão para tópicos mais avançados. Ele pode identificar lacunas no entendimento e apresentar as intervenções corretas para preencher essas deficiências.

Simultaneamente com a avaliação de testes e exercícios podem ser inseridos mecanismos para a detecção de dificuldades outras que não as puramente acadêmicas, tais como deficiências de visão e concentração para alunos mais jovens.

Evidentemente nenhum sistema, por mais arrojado que seja, poderá se furtar ao estímulo de aspectos humanos básicos tais como a criatividade, cooperação entre indivíduos e desenvolvimento ético. Principalmente nas primeiras fases de implantação dos sistemas inteligentes nas escolas, visto que o efeito completo da exposição a sistemas artificiais não é plenamente conhecido, não se pode permitir uma dependência excessiva nas máquinas. Alunos devem receber estímulo para realizar pesquisas tradicionais em bibliotecas e usar livros físicos. A interação entre alunos e educadores e colegas deve ser uma prioridade. Além disso, em um contexto onde a informação, como acesso aos dados, e a capacidade de processamento destes dados estão super facilitados pela presença de computadores, a criatividade e a habilidade para a solução de problemas, individualmente ou em grupo, deve ser o foco do processo educativo.

Grande parte do desafio das instituições de ensino em face da explosão da IA consiste em treinar profissionais para o uso e desenvolvimento dos próprios sistemas inteligentes. Um usuário não especialista em computação deve adquirir compreensão básica do mecanismo de funcionamento das máquinas, com conhecimento mínimo da arquitetura destes sistemas e da análise estatística utilizada por eles. Caso contrário não saberá discernir que tipo de demandas são adequadas para as IAs nem terá competência para interpretar os resultados destes processos.

O treinamento de especialistas com competência para desenvolver sistemas inteligentes não é desafio menor. A inteligência de máquina e os sistemas de aprendizado dependem profundamente de matemática avançada, em particular a álgebra linear e a estatística, e de programação e lógica. Existe risco evidente do uso das ferramentas mais modernas como caixas pretas onde um programador pode colocar em funcionamento sistemas complexos sem ter um bom domínio da tecnologia envolvida. Além da dependência cultural e tecnológica dos centros desenvolvedores isso cria restrição severa sobre a habilidade para tratar de novos desafios, especialmente aqueles de interesse restrito à comunidade local, tais como problemas dos países em desenvolvimento que não foram devidamente tratados pelos grandes centros de pesquisa.


Expectativa e Desafio Futuro

Inteligência Artificial e Aprendizado de Máquina


O que são e para que servem?

O aperfeiçoamento de tecnologias da informação, não diferente de outras tecnologias, tem causado grande impacto na sociedade humana. Grande parte deste impacto é positiva no sentido de aprimorar a experiência do indivíduo, liberando-o de tarefas mecânicas pesadas ou atividades intelectuais extenuantes. No geral a tecnologia amplia a capacidade humana de transformação da natureza ao mesmo tempo em que facilita a exploração científica que, por sua vez, realimenta o avanço tecnológico. No entanto os mesmos aspectos que podem ser benéficos também podem introduzir desafios. Máquinas, como ferramentas mecânicas, aumentam a eficiência e produtividade de um indivíduo, colateralmente provocando desemprego e concentração de renda. Da mesma forma máquinas eletrônicas que simulam as atividades de cognição e interpretação humanas estão, já há alguns anos, transformando a sociedade e as relações entre indivíduos de modo construtivo, em certa medida. Muitos aspectos desta transformação são claramente nocivos, como a evidente tendência da substituição de trabalhadores por máquinas “inteligentes” ou, por exemplo, a manipulação de opiniões para fins políticos usando o levantamento de perfis psicológicos. No entanto esta é uma tecnologia nova e de crescimento muito rápido e a maior parte do impacto causado por ela continua desconhecido e deve ser considerado com atenção.

A inteligência artificial (IA) começou a ser desenvolvida na década de 1950, em um esforço para automatizar atividades antes empreendidas apenas por humanos. Tomadas de decisão básicas podem ser implementadas por equipamentos simples, tal como um termostato que limita a atividade de um condicionador de ar desligando-o quando uma temperatura mínima é atingida. Processadores, que são o núcleo dos computadores eletrônicos, são formados por grande número de circuitos capazes de implementar testes lógicos básicos descritos na chamada Álgebra de Boole. Com o desenvolvimento da programação, que consiste em uma fila de instruções a serem seguidas pelo computador, tornou-se viável a elaboração de sistemas especialistas. Esses sistemas são compostos por uma longa série de instruções, geralmente com acesso a um repositório de informações (um banco de dados) para a tomada de decisões. Eles podem classificar vinhos, jogar xadrez, resolver problemas matemáticos usando apenas símbolos, entre muitas outras tarefas.

Apesar do sucesso de tais sistemas especialistas existem tarefas de complexidade muito superior à de jogar xadrez ou classificar objetos de um conjunto, mesmo que com milhares de elementos. Uma tarefa como a identificação e localização de objetos em uma imagem, por exemplo, exigiria um conjunto gigantesco de linhas de instruções ou informações em bancos de dados. Para tratar grandes volumes de dados e questões que não admitem soluções por meio de algoritmos fixos, mesmo que complexos, foi desenvolvido o Aprendizado de Máquina Artificial (Machine learning).

 

Ada Lovelace e Charles Babbage

Nas décadas de 1830 e 1840, quando Ada Lovelace e Charles Babbage desenvolveram o Analytical Engine, o primeiro computador mecânico, eles não o consideravam uma máquina a ser utilizada para a solução de problemas genéricos. Pelo contrário, ele foi concebido e utilizado em problemas específicos na área da análise matemática. Nas palavras de Lovelace:

O Analytical Engine não tem pretensões de criar coisa alguma. Ele apenas pode fazer aquilo que conhecemos e sabemos como instruí-lo em sua execução… Sua função é a de nos ajudar com o que já estamos familiarizados.…”

 

Essas conclusões foram analisadas por Alan Turing, o pioneiro da IA, em seu artigo de 1950 “Computing Machinery and Intelligence”, onde são introduzidos os conceitos de teste de Turing e outros que se tornaram fundamentos da IA. Ele concluiu que máquinas eletrônicas poderiam ser capazes de aprendizado e originalidade. Aprendizado de máquina (machine learning) é a resposta positiva para a pergunta: um computador pode ir além das instruções com as quais foi programado e aprender a executar tarefas?

O aprendizado de máquina representa um novo paradigma na programação. Ao invés de armazenar na memória do computador um conjunto de regras fixas a serem usadas na execução de uma tarefa o computador é carregado com algoritmos flexíveis que podem ser modificados por meio de treinamento. O aprendizado consiste em exibir para a máquina um conjunto grande de exemplos anotados (devidamente etiquetados) por um humano ou por outra máquina previamente treinada. Uma vez treinado o mesmo sistema será capaz de identificar corretamente (ou com bom nível de precisão) casos novos além daqueles antes exibidos.

 

Programação clássica x Aprendizado de Máquina

 

Suponha, por exemplo, que queremos identificar em uma pilha de fotos aquelas que contêm imagens de gatos ou cachorros. O código contendo os algoritmos é alimentado com fotos dos animais, cada uma devidamente etiquetada. Uma forma de avaliação de erro da previsão é fornecida juntamente com um algoritmo flexível que pode ser alterado automaticamente de forma a minimizar os erros da avaliação. Por meio da leitura repetida destas imagens o algoritmo é modificado para produzir o menor erro possível de leitura.

 

Treinamento de máquina

 

A este processo chamamos de treinamento. Em terminologia técnica dizemos que ele consiste em alterar os parâmetros do algoritmo de forma a minimizar os erros. Uma vez encontrados estes parâmetros o algoritmo pode ser usado para identificar novas fotos contendo gatos ou cachorros. Ao treinamento feito com o uso de dados etiquetados é denominado supervised learning (aprendizado supervisionado). É também possível submeter à análise do computador um conjunto de dados não identificados com a demanda de que o o algoritmo identifique padrões de forma autônoma e classifique elementos de um conjunto por similaridade desses padrões. No unsupervised learning (aprendizado não supervisionado) é possível que o sistema inteligente distinga padrões que mesmo um humano não seria capaz de perceber.

Machine learning é um método de análise e processamento de dados que automatiza a construção do algoritmo de análise.

O treinamento de máquinas depende da velocidade e capacidade de computadores mas, também, do acesso à informação ou dados. Esse acesso é fornecido pela atual conectividade entre fontes diversas de dados, armazenados de forma estruturada ou não. A habilidade dos computadores de realizar uma análise sobre um volume muito grande desses dados leva ao conceito de Big Data. A operação de busca e coleta desses dados é a atividade de Data Mining (mineração de dados) enquanto a seleção e interpretação desses dados é eficientemente realizada por sistemas inteligentes.

xkcd.com

Embora os primeiros passos na construção de sistemas de aprendizado tenham sido inspirados no funcionamento de cérebros e neurônios humanos (ou animais), as chamadas redes neurais artificiais não são projetadas como modelos realistas da arquitetura ou funcionalidade biológica. A expressão deep learning ou aprendizado profundo se refere apenas às múltiplas camadas usadas para o aprendizado artificial. A plasticidade do cérebro biológico, que é a capacidade de partes do cérebro de se reordenar para cumprir tarefas diferentes daquelas em que estava inicialmente treinado, levantou a hipótese de que algoritmos simples e comuns podem ser especializados para resolver tarefas diversas. Reconhecimento de imagens ou textos, por exemplo, podem ser efetuados por estruturas similares. A neurociência mostrou que a interação de partes simples pode exibir comportamento inteligente e complexo. Considerando as grandes lacunas existentes no entendimento da inteligência biológica, a memória e outras funções dos organismos vivos, é de se esperar que os avanços nessa área da ciência, juntamente com a evolução dos computadores, ainda venha a oferecer guias importantes para o aperfeiçoamento da inteligência artificial.


Onde o Aprendizado de Máquina é usado?

Dinâmica relativística


Até o momento discutimos o movimento de partículas livres e a transformação de seu movimento entre dois referenciais inerciais. Partículas livres descrevem retas em \(M_4\) e estas retas são levadas em outras retas por meio de transformações de Lorentz, já que elas são transformações lineares. Concluímos que, assim como acontece na mecânica clássica sob transformações de Galileu, a inércia não fica alterada de um referencial para outro. Qualquer desvio na linearidade do movimento de uma partícula deve ser atribuído à presença de alguma interação, uma força agindo sobre ela.

Para construir uma dinâmica devemos definir massa e momento sobre esta teoria. Na teoria Newtoniana a massa é uma constante de proporcionalidade entre a aceleração e a força. Na TRE tentamos seguir de perto, tanto quanto possível, as definições e conceitos da mecânica clássica, principalmente tendo em mente que a teoria relativística deve se reduzir à clássica no caso limite de baixas velocidades, em particular no que se refere às leis de conservação.

Construímos, na seção anterior, os quadrivetores
$$
u^{\mu} = \frac{dx^{\mu}}{d \tau} = \left( \gamma c, \gamma v \right), \text{} p^{\mu} = mu^{\mu} = \left( \gamma mc, \gamma mv \right) .
$$

Vimos que as partes espaciais destes quadrivetores se relacionam com a velocidade e o momento linear ordinários em 3 dimensões de forma simples,
$$
u_{\left( 4 \right)}^i = \gamma v_{\left( 3 \right)}^i ; p_{\left( 4
\right)}^i = \gamma p_{\left( 3 \right)}^i .
$$

Gostaríamos agora de explorar um pouco mais o significado do componente temporal \(p^0\) do quadrivetor momento, o que faremos na próxima seção, juntamente com o conceito de força generalizada.

Além dos vetores \(u^{\mu}\) e \(p^{\mu}\) , contruídos à partir da linha mundo \(x^{\mu} \left( \tau \right)\) , podemos definir um terceiro vetor
interessante
$$
K^{\mu} = m \frac{d^2 x^{\mu}}{d \tau} = \frac{dp^{\mu}}{d \tau} =
\frac{d}{d \tau} \left( \gamma mc, \gamma mv \right) .
$$

a chamada força generalizada de Minkowsky.\(\mathbb{}\) Denotaremos o componente espacial desta força de \(\vec{F}\) e portanto \(K = \left( K^0, \vec{F} \right)\). Em particular estamos interessados em descobrir as quantidades que se conservam nesta teoria.

Contraindo a força generalizada e a 4-velocidade podemos obter um esclarecimento sobre \ natureza do componente \(p^0\) do momento. Começamos
por notar que
$$
u^{\mu} K_{\mu} = mu^{\mu} \frac{du_{\mu}}{d \tau} = 0.
$$

A expressão acima se anula pois
$$
0 = \frac{d}{d \tau} \left( u_{\mu} u^{\mu} \right) = u_{\mu}
\frac{du^{\mu}}{d \tau} = \left( \frac{du_{\mu}}{d \tau} \right) u^{\mu} =
2 u_{\mu} \frac{du^{\mu}}{d \tau},
$$

já que \(u_{\mu} u^{\mu} = – c^2\) é uma constante. Observe também que usamos neste cálculo o fato de que \(\eta_{\mu \nu}\) é formado por constantes e portanto
$$
u^{\mu} \frac{du_{\mu}}{d \tau} = u^{\mu} \frac{d \left( \eta_{\mu \nu}
u^{\nu} \right)}{d \tau} = \eta_{\mu \nu} u^{\mu} \frac{du^{\nu}}{d \tau}
= u_{\mu} \frac{du^{\mu}}{d \tau} .
$$

Por outro lado
$$
0 = u^{\mu} K_{\mu} = – \left( u^0 K^0 \right) + u^i K_i = – \gamma cK^0 +
\gamma v^i K_i,
$$

de onde tiramos uma expressão para \(K^0\) ,
$$
K^0 = \frac{1}{c} v^i K_i = \frac{1}{c} \vec{v} . \vec{F} .
$$

Prosseguindo na analogia com o caso clássico relembramos a equação 2. Se \(T\) é a energia cinética de uma partícula então
$$
\frac{dT}{dt} = \vec{F} . \vec{v},
$$

o que sugere a adoção da seguinte notação: fazemos
$$
P^0 = \gamma mc = \frac{E}{c}
$$

e, por conseguinte,
$$
K^0 = \frac{1}{c} \frac{dE}{d \tau},
$$

onde \(E\) é a energia total da partícula, cujo sentido exploraremos em seguida. Usando estas definições temos

(7)

$$
E = \gamma mc^2 \text{e} \vec{p} = \gamma m \vec{v}, \label{emc2}
$$
generalizações da energia e do momento ordinário, podemos escrever o vetor quadri-momento como

(8)

$$
p^{\mu} = \left( \frac{E}{c}, \vec{p} \right) . \label{pmu}
$$
A norma deste vetor é invariante,
$$
p^{\mu} p_{\mu} = – \left( \frac{E}{c} \right)^2 + p^2 = – m^2 c^2,
$$

sendo \(p = \left| \vec{p} \right|\). Uma expressão útil pode ser obtida daí,
$$
E^2 = m^2 c^4 + p^2 c^2,
$$

uma expressão que associa a energia total da partícula com sua massa e velocidade. No referencial comóvel, onde \(\gamma = 1\) e \(p = 0\) temos a famosa equação de Einstein
$$
E = mc^2,
$$

válida, como já indicado, apenas no referencial da partícula. Outra relação interessante pode ser obtida para o caso de baixas velocidades, \(\beta \ll 1\). Neste caso usamos a expansão em séries de potências mantendo apenas os termos mais relevantes para escrever \(\gamma \approx \left( 1 + \beta^2 / 2 \right)\) e a equação 7 para a energia se torna
$$
E = \gamma mc^2 \approx \left( 1 + \frac{\beta^2}{2} \right) mc^2 = mc^2 +
\frac{1}{2} mv^2 .
$$

Para baixas velocidades a energia definida na equação 7 é a energia cinética ordinária mais um termo constante que denominaremos energia de repouso da partícula.

Diversos fenômenos observados confirmam a correção destas expressões. Um exemplo interessante é o da aniquilação de um elétron e um pósitron que resulta na completa aniquilação da massa de repouso das partículas iniciais resultando na emissão de fótons com massa de repouso nula que transportam toda a energia inicial do sistema. Reações atômicas que ocorrem dentro de reatores nucleares ou bombas atômicas se utilizam da fissão nuclear, a quebra de núcleos, para a liberação de grandes quantidades de energia. Os núcleos partidos possuem massa menor que a massa inicial, a diferença sendo liberada sob forma de energia transportada por radiação eletromagnética. Um processo análogo, porém inverso, ocorre no interior das estrelas onde núcleos leves, basicamente hidrogênio e hélio, são fundidos em núcleos mais pesados, resultando na liberação de energia.

Leis de conservação

Na Mecânica Clássica as simetrias do sistema considerado levam às leis de conservação. Um sistema homogêneo por translações de coordenadas exibe conservação do momento linear enquanto sistemas isotrópicos apresentam conservação do momento angular. Se um sistema é homogêneo por translaçãoes temporais então ele possue a energia total conservada.

Na Teoria da Relatividade Especial os escalares são as quantidades conservadas. Escalares são invariantes quando se troca de um sistema de coordenada estabelecido em um referencial inercial para outro sistema inercial. Em um referencial comóvel uma partícula tem o 4-momento
$$
p^{\mu} = \left( m_0 c, \vec{0} \right),
$$

onde \(m_0\) é a chamada massa de repouso da partícula, a massa medida por um observador no referencial comóvel. Calculamos \(p^{\prime \mu}\) obtido por meio de uma transformação de Lorentz sobre o momento anterior
$$
p^{\prime \mu} = \Lambda_{\hspace{0.75em} \alpha}^{\mu} p^{\alpha} = \left[
\begin{array}{cccc}
\gamma & \gamma v / c & \hspace{0.75em} 0 & \hspace{0.75em} 0\\
\gamma v / c & \gamma & \hspace{0.75em} 0 & \hspace{0.75em} 0\\
0 & 0 & \hspace{0.75em} 1 & \hspace{0.75em} 0\\
0 & 0 & \hspace{0.75em} 0 & \hspace{0.75em} 1
\end{array} \right] \left[ \begin{array}{c}
m_0 c\\
0\\
0\\
0
\end{array} \right] = \left[ \begin{array}{c}
\gamma m_0 c\\
\gamma m_0 v\\
0\\
0
\end{array} \right],
$$

ou seja,
$$
p^{\prime \mu} = \gamma \left( m_0 c, \hspace{0.25em} m_0 v
\hspace{0.25em}, 0 \hspace{0.25em}, 0 \right) .
$$

Se pretendemos manter a expressão para o momento como composto por energia e momento, \(p^{\mu} = \left( \frac{E}{C}, \hspace{0.75em} m \mathbf{v} \right)\) teremos então que definir
$$
m = \gamma m_0 = \frac{m_0}{\sqrt{1 – \beta^2}}
$$

que mostra a dilatação da massa para partículas em altas velocidades. Nenhum objeto com massa de repouso não nula pode ser acelerado até uma velocidade igual ou superior à velocidade da luz.

Podemos mostrar que, na TRE, o quadrivetor momento-energia é uma entidade conservada em um sistema de partículas. Definindo a variação total de momento-energia em um referencial como
$$
\Delta p^{\mu} = \left( \sum^n_a p_a^{\mu} \right)_{final} – \left(
\sum^n_a p_a^{\mu} \right)_{inicial}
$$

onde a soma é realizada sobre todas as partículas do sistema. Em outro referencial os momentos são transformados, para cada partícula, da seguinte forma
$$
p_a^{\prime \mu} = \Lambda_{\nu}^{\mu} p_a^{\nu}
$$

e, portanto, a variação total do momento-energia é
$$
\Delta p^{\prime \mu} = \left( \sum^n_a \Lambda_{\nu}^{\mu} p_a^{\nu}
\right)_{final} – \left( \sum^n_a \Lambda_{\nu}^{\mu} p_a^{\nu}
\right)_{inicial} = \Lambda_{\nu}^{\mu} \Delta p^{\nu} = \Delta p^{\mu} .
$$

Isto significa que se a variação total é nula em um referencial então ela será nula em qualquer referencial inercial. Observe que, para concluir isto, seria suficiente afirmar que a variação total, sendo composta por somas de vetores, é também um vetor. Se transformarmos este vetor para o referencial comóvel os componentes de \(\mathbf{p}\) são, como vimos na equação 8, a energia e o momento ordinário, ambos quantidades conservadas em qualquer reação ou interação de forma que a variação total do sistema será \(\Delta p^{\prime \mu} = 0\). Concluimos assim que
$$
\Delta p^{\mu} = 0
$$

em qualquer referencial inercial. Note, no entanto, que o momento e a energia não se conservam isoladamente.

Convenções e notação

O espaço-tempo é denominado \(M_4\) , o espaço de Minkowsky, cujos pontos são os eventos
$$
\mathbf{x =} \left( x^0, x^1, x^2, x^3 \right) \text{ ou, resumidamente, }
\mathbf{x =} \left\{ x^{\mu} \right\} .
$$

Vetores de \(M_4\) são representados por letras em negrito, \(\mathbf{x, u, p}\) enquanto vetores de \(I \hspace{-4pt} R^3\) são representados por meio de setas \(\vec{x} = \left( x, y, z \right)\) ou \(\vec{x} = \left\{ x^i \right\}\).Algumas vêzes é interessante separar o vetor em suas partes temporal e espacial fazendo, por exemplo,
$$
\mathbf{p} = \left( p^0, \vec{p} \right)
$$

Usamos índices gregos como índices do espaço-tempo,
$$
\alpha, \beta, \mu, \nu = 0, 1, 2, 3,
$$

enquanto índices latinos são puramente espaciais:
$$
i, j, k = 1, 2, 3.
$$

\(\left\{ \mathbf{\hat{e}}_{\mu} \right\}\) é a base canônica de \(M_4\), onde \(\mathbf{\hat{e}}_0\) é um vetor unitário puramente temporal e \(\mathbf{\hat{e}}_1 = \hat{\imath}, \mathbf{\hat{e}}_2 = \hat{\jmath}, \mathbf{\hat{e}}_3 = \hat{k}\).A métrica de Minkowsky é \(\eta_{\mu \nu} = \textit{diag} \left( -, +, +, + \right)\). A base canônica \(\left\{ \mathbf{\hat{e}}_{\mu} \right\}\) é ortonormal em relação à métrica de Minkowsky, ou seja

$$
\mathbf{\eta} \left( \mathbf{\hat{e}}_0, \mathbf{\hat{e}}_0 \right) = – 1,
$$

$$
\mathbf{\eta} \left( \mathbf{\hat{e}}_i, \mathbf{\hat{e}}_j \right) = \delta_{ij} .
$$

A convenção de Einstein para o somatório, onde índices repetidos são somados, é adotada em quase todo o texto. Com ela podemos escrever, por exemplo,

$$
ds^2 = \sum^3_{\mu, \nu = 0} dx^{\mu} dx^{\nu} \eta_{\mu \nu} = dx^{\mu}
dx^{\nu} \eta_{\mu \nu} .
$$

Bibliografia

  • Carrol, Sean, M.: Lecture Notes in General Relativity, gr-qc/9712019, Santa Barbara, 1997.
  • Lopes, J. L.: A Estrutura Quântica da Matéria, Editora UFRJ, Rio e Janeiro, 1993.
  • Misner, C., Thorne, K., Wheeler, A.: Gravitation, W. H. Freeman and Co., San Francisco, 1970.
  • Ohanian, H., Ruffini: Gravitation and Spacetime, W. W. Norton & Company, New York, 1994.
  • Ramond, P.: Field Theory, A Modern Primer, Addison-Wesley, New York, 1990.
  • Weinberg, S.: Gravitation and Cosmology, Principles and Applications of General Theory of Relativity, John Wiley and Sons, New York, 1971.

 

Início: TRE

A estrutura do espaço-tempo

Um evento

O espaço onde os fenômenos ocorrem, segundo a TRE, é um espaço vetorial de quatro dimensões que denotaremos por \(M_4\), o espaço de Minkowsky (que é similar ao \(R^4\), mas não euclidiano, como veremos). Cada ponto deste espaço é denominado um evento e será marcado com as coordenadas \((ct, \hspace{0.25em} x, \hspace{0.25em} y, \hspace{0.25em} z)\) que descrevem quando e onde o evento ocorreu. Cada ponto, portanto, pode ser associado a um quadrivetor \(\mathbf{x} = \left\{ x^{\mu} \right\} = \left( ct, \hspace{0.25em} x, \hspace{0.25em} y, \hspace{0.25em} z \right)\).

Com esta definição podemos reescrever a separação infinitesimal na forma
$$
ds^2 = – c^2 dt^2 + dx^2 + dy^2 + dz^2 = – \left( dx^0 \right)^2 + \left(
dx^1 \right)^2 + \left( dx^2 \right)^2 + \left( dx^3 \right)^2 = \eta_{\mu
\nu} dx^{\mu} dx^{\nu}
$$

onde escrevemos

(6)

$$
\eta_{\mu \nu} = \left( \begin{array}{cccc}
– 1 & 0 & 0 & 0\\
\hspace{0.75em} 0 & 1 & 0 & 0\\
\hspace{0.75em} 0 & 0 & 1 & 0\\
\hspace{0.75em} 0 & 0 & 0 & 1
\end{array} \right) . \label{etaMikowsky}
$$
Por construção as transformações de Lorentz deixam invariante este intervalo. Estas transformações, dadas pelas equações 5, podem ser escrita da seguinte forma:
$$
x^{\prime 0} = \gamma \left( x^0 – \frac{v}{c} x^1 \right),
\hspace{1.5em} x^{\prime 2} = x^2
$$

$$
x^{\prime 1} = \gamma \left( x^1 – \frac{v}{c} x^0 \right), \hspace{1.5em} x^{\prime 3} = x^3 .
$$

Em forma matricial temos
$$
\left[ \begin{array}{c}
x^{\prime 0}\\
x^{\prime 1}\\
x^{\prime 2}\\
x^{\prime 3}
\end{array} \right] = \left[ \begin{array}{cccc}
\gamma & – \gamma v / c & \hspace{0.75em} 0 & \hspace{0.75em} 0\\
– \gamma v / c & \gamma & \hspace{0.75em} 0 & \hspace{0.75em} 0\\
0 & 0 & \hspace{0.75em} 1 & \hspace{0.75em} 0\\
0 & 0 & \hspace{0.75em} 0 & \hspace{0.75em} 1
\end{array} \right] \left[ \begin{array}{c}
x^0\\
x^1\\
x^2\\
x^3
\end{array} \right]
$$

ou ainda, em forma compacta,
$$
x^{\prime \mu} = \Lambda_{\nu}^{\mu} x^{\nu}, \hspace{0.75em} \mu = 0, 1, 2, 3;
$$

onde a soma sob o índice \(\nu\) está subentendida. A invariância do intervalo, \(ds^{\prime 2} = ds^2\) , implica em
$$
\eta_{\mu \nu} dx^{\prime \mu} dx^{\prime \nu} = \eta_{\mu \nu}
\Lambda_{\hspace{0.3em} \alpha}^{\mu} dx^{\alpha} \Lambda_{\hspace{0.3em}
\beta}^{\nu} dx^{\beta} = \eta_{\mu \nu} dx^{\mu} dx^{\nu}
$$

e, por conseguinte, vale
$$
\eta_{\mu \nu} \Lambda_{\hspace{0.3em} \alpha}^{\mu}
\Lambda_{\hspace{0.3em} \beta}^{\nu} = \eta_{\alpha \beta} .
$$

A exigência da invariância entre separações de eventos define uma métrica \(\eta\) no espaço-tempo, a chamada métrica de Minkowsky. Tomando \(\mathbf{x}\) e \(\mathbf{y}\) como vetores de \(M_4\) definimos uma aplicação bilinear e simétrica satisfazendo

  • \(\mathbf{\eta} \left( \mathbf{x}, \mathbf{x} \right) = \left|
    \mathbf{x} \right|^2\) , onde \(\left| \mathbf{x} \right|\) é a norma ou comprimento de \(\mathbf{x}\)
  • \(\mathbf{\eta} \left( \mathbf{x}, \mathbf{y} \right) = \mathbf{\eta}
    \left( \mathbf{y, x} \right)\)
  • \(\eta \left( \mathbf{x}, \mathbf{x} \right) \hspace{0.75em} \left\{
    \begin{array}{c}
    = 0\\
    > 0\\
    < 0
    \end{array} \right. \begin{array}{c}
    \hspace{0.75em} \text{separação tipo luz,}\\
    \hspace{0.75em} \text{separação tipo espaço,}\\
    \hspace{0.75em} \text{separação tipo tempo.}
    \end{array}\)
Tipo de vetores

Observe, no entanto, que ela não é positiva como a métrica euclidiana, definida pelo produto interno ou produto escalar. Dizemos que \(M_4\) é um espaço pseudo-euclidiano.

Usando como base de \(M_4\) os vetores \(\left\{ \mathbf{\hat{e}}_{\mu} \right\} = \left\{ \hat{t}, \hat{\imath}, \hat{\jmath},
\hat{k} \right\}\) podemos obter os componentes da métrica
$$
\eta_{\mu \nu} = \mathbf{\eta} \left( \mathbf{\hat{e}}_{\mu} \mathbf{,
\hat{e}_{\nu}} \right) = \left\{
\begin{array}{cl}
\mathbf{\eta} \left( \mathbf{\hat{e}}_0 \mathbf{, \hat{e}_0} \right) & =
– 1\\
\mathbf{\eta} \left( \mathbf{\hat{e}}_i \mathbf{, \hat{e}}_j \right) & =
\delta_{ij}\\
\mathbf{\eta} \left( \mathbf{\hat{e}}_0 \mathbf{, \hat{e}}_i \right) & =
0.
\end{array} \right. .
$$

São estes os componentes já exibidos na equação (5).

Observe que dois eventos ligados por um feixe de luz, como a emissão e captação de um fóton, por exemplo, estão separados por uma distância nula, ou seja, um vetor não nulo pode ter comprimento zero. Para ver isto fazemos
$$
ds^2 = – c^2 dt^2 + dx^2 + dy^2 + dz^2 =
$$

$$
= dt^2 \left[ – c^2 + \frac{dx^2}{dt^2} + \frac{dy^2}{dt^2} +
\frac{dz^2}{dt^2} \right] = dt^2 \left[ – c^2 + v^2 \right] = 0
$$

já que para o fóton \(v = c. \hspace{0.75em}\) Observe ainda que um vetor pode ter norma negativa ou, ainda, um vetor não nulo pode ter norma nula.
Este é o caso de vetores sobre o cone de luz
$$
– c^2 t^2 + x^2 + y^2 + z^2 = 0,
$$

Figura 6: Cone de luz

ilustrado na figura 6. A partir de um evento colocado na origem \(O\), o espaço fica dividido em três regiões distintas: o futuro e o passado de \(O\) , dentro do cone, e uma região sem conexão causal com \(O\).

O passado é composto por pontos onde ocorreram eventos que podem influenciar o evento em \(O\) por meio de alguma interação causal. Por outro lado \(O\) pode influenciar todos os eventos dentro do cone do futuro. Nenhum evento fora do cone pode afetar \(O\) nem ser por ele afetado pois não podem estar conectados por nenhuma interação com velocidade menor ou igual à da luz. A velocidade da luz é uma velocidade limite para a transmissão de qualquer informação dentro do panorama de Relatividade Especial.

Vetores e tensores de M4

(8) Com frequência usaremos um abuso de linguagem, comum na literatura, dizendo que o vetor \(\mathbf{x}\) é simplesmente \(x^{\mu}\).

O espaço-tempo é um espaço vetorial de quatro dimensões onde a métrica ou produto interno foi definido de modo a manter invariante a separação entre eventos. Se \(\mathbf{x} \in M_4\) então \(\mathbf{x =} x^{\mu} \mathbf{\hat{e}}_{\mu}\). Usaremos a notação(8)
$$
\mathbf{x =} \left( x^0, x^1, x^2, x^3 \right) \text{ ou, abreviadamente, } \mathbf{x =} \left\{ x^{\mu} \right\} .
$$

Observe que \(\mathbf{x}\) é um objeto geométrico que nada tem a ver com o sistema de coordenadas escolhido enquanto enquanto os componentes \(x^{\mu}\) dependem da escolha da base \(\left\{ \mathbf{\hat{e}}_{\mu} \right\}\) e, portanto, do sistema de coordenadas utilzado. De acordo com a definição da norma temos
$$
\left| \mathbf{x} \right|^2 = \mathbf{\eta} \left( \mathbf{x}, \mathbf{x}
\right) = \mathbf{\eta} \left( x^{\mu} \mathbf{\hat{e}}_{\mu}, x^{\nu}
\mathbf{\hat{e}}_{\nu} \right) = x^{\mu} x^{\nu} \mathbf{\eta} \left(
\mathbf{\hat{e}}_{\mu}, \mathbf{\hat{e}}_{\nu} \right) = x^{\mu} x^{\nu}
\eta_{\mu \nu}
$$

e, portanto, \(\mathbf{x}\) tem comprimento invariante sob transformações de Lorentz. Diremos que \(x^{\mu}\) são os componentes contravariantes do vetor enquanto
$$
x_{\mu} = \eta_{\mu \nu} x^{\nu}
$$

são os componentes covariantes. Observe que \(x_0 = \eta_{0 \nu} x^{\nu} = – x^0\) e que, com esta notação,
$$
\left| \mathbf{x} \right|^2 = x^{\mu} x_{\mu} = – \left( x^0 \right)^2 +
x^i x_i = – \left( x^0 \right)^2 + \vec{x} \cdot \vec{x} .
$$

Se definirmos como \(\eta^{\mu \nu}\) como os componentes da matriz inversa de \(\mathbf{\eta,}\) de forma que
$$
\mathbf{\eta}^{- 1} \mathbf{\eta = I} \Rightarrow \eta^{\mu \alpha}
\eta_{\alpha \nu} = \delta_{\nu}^{\mu}
$$

então podemos retornar aos componentes contravariantes fazendo
$$
x^{\mu} = \eta^{\mu \nu} x_{\nu} .
$$

Definiremos como vetores de \(M_4\) todas as quantidades que se transformam da mesma forma que \(\mathbf{x.}\) O comprimento de todos os vetores, assim como o produto interno de dois vetores
$$
\mathbf{\eta} \left( \mathbf{u}, \mathbf{v} \right) = \mathbf{\eta} \left(
u^{\mu} \mathbf{\hat{e}}_{\mu}, v^{\nu} \mathbf{\hat{e}}_{\nu} \right) =
u^{\mu} v^{\nu} \mathbf{\eta} \left( \mathbf{\hat{e}}_{\mu},
\mathbf{\hat{e}}_{\nu} \right) = u^{\mu} v^{\nu} \eta_{\mu \nu} = u^{\mu}
v_{\mu},
$$

denominado a contração de \(\mathbf{u}\) e\(\mathbf{v,}\) são escalares, independentes do sistema de referência. Em particular será útil definir os vetores velocidade e momento, o que faremos a seguir.

Uma trajetória em \(M_4\) é uma curva parametrizada também chamada de linha mundo da partícula,
$$
P \left( \tau \right) = \mathbf{x} \left( \tau \right) = x^{\mu} \left(
\tau \right) \mathbf{\hat{e}}_{\mu},
$$

onde \(\tau\) é um parâmetro qualquer embora, com frequência, seja conveniente usar o tempo próprio. Como \(\mathbf{x}\) é um vetor de \(M_4\) então
$$
\mathbf{u =} \frac{d \mathbf{x}}{d \tau} = \frac{dx^{\mu}}{d \tau}
\mathbf{\hat{e}}_{\mu} = u^{\mu} \mathbf{\hat{e}}_{\mu}
$$

onde definimos
$$
u^{\mu} = \frac{dx^{\mu}}{d \tau} .
$$

\(\mathbf{u,}\) a quadri-velocidade, é também um vetor, tangente à linha mundo. Seus componentes são
$$
u^0 = \frac{dx^0}{d \tau} = \frac{cdt}{d \tau} = \frac{c}{\sqrt{1 –
\beta^2}},
$$

$$
u^i = \frac{dx^i}{d \tau} = \frac{dt}{d \tau} \frac{dx^i}{dt} =
\frac{v^i}{\sqrt{1 – \beta^2}} .
$$

Portanto
$$
\mathbf{u} = \left( \frac{c}{\sqrt{1 – \beta^2}}, \frac{v_x}{\sqrt{1 –
\beta^2}}, \frac{v_y}{\sqrt{1 – \beta^2}}, \frac{v_z}{\sqrt{1 – \beta^2}}
\right) = \gamma \left( c, \hspace{0.75em} \vec{v} \right) .
$$

A partir desta velocidade construimos outro vetor paralelo à 4-velocidade, o 4-momento
$$
\mathbf{p =} m \mathbf{u} = mu^{\mu} \mathbf{\hat{e}}_{\mu},
$$

onde \(m\) é a massa da partícula. Seus componentes são
$$
\mathbf{p} = \left( \frac{mc}{\sqrt{1 – \beta^2}}, \frac{m \vec{v}}{\sqrt{1
– \beta^2}} \right) = m \gamma \left( c, \sim \vec{v} \right) .
$$

No referencial comóvel \(\vec{v} = 0\) e \(\gamma = 1\) e, portanto, estes vetores assumem as formas particulares
$$
u^{\mu} = \left( c, \vec{0} \right) \hspace{1.5em} \text{ e } \hspace{1.5em} p^{\mu} = \left( mc, \vec{0}
\right) .
$$

Como se verá \(\mathbf{p}\) é uma constante do movimento enquanto o momento linear tridimensional \(\vec{p} = m \vec{v} \mathbf{,}\) que é uma quantidade conservada classicamente, não se conserva na TRE. As normas de \(\mathbf{u}\) e\(\mathbf{p,}\) em qualquer referencial inercial, são
$$
\left| \mathbf{u} \right|^2 \mathbf{=} u^{\mu} u_{\mu} = – \left( u^0
\right)^2 + u^i u_i = \gamma^2 \left( – c^2 + v^2 \right) = \frac{- c^2 +
v^2}{1 – \beta^2} = – c^2 ;
$$

$$
\left| \mathbf{p} \right|^2 = p^{\mu} p_{\mu} = m^2 u^{\mu} u_{\mu} = – m^2
c^2 .
$$

Tensores do espaço-tempo O mais simples dos tensores é um escalar, um tensor de ordem zero. Escalares são invariantes sob transformações de Lorentz, como ocorre com a separação de eventos \(ds^2\) , com o tempo próprio \(\tau\) , ou com a norma do vetor quadrivelocidade, \(\left| \mathbf{u} \right|^2 = – c^2\).

Um vetor é um tensor de ordem um, um objeto de quatro componentes que se transforme como \(x^{\mu}\) :
$$
A^{\prime \mu} = \Lambda_{\nu}^{\mu} A^{\nu} .
$$

O vetor quadri-velocidade e o quadri-momento são exemplos. Um tensor mais geral, de ordem \(r\) é um objeto com \(4^r\) componentes que se transforma deacordo com
$$
A^{\prime \alpha \beta \ldots \gamma} = \Lambda_{\mu}^{\alpha}
\Lambda_{\nu}^{\beta} \ldots \Lambda_{\rho}^{\gamma} A^{\mu \nu \ldots
\rho} .
$$

Um exemplo é o tensor formada pelo produto externo \(x^{\mu} x^{\nu}\).

 

Dinâmica Relativística

As Transformações de Lorentz


A teoria da relatividade afirma que observadores em movimento relativo concordam quanto à forma das equações que descrevem os fenômenos observados. é necessário então descobrir a lei de transformação que leva à descrição feita em um referencial para o outro. Matematicamente esta é uma transformação particular de coordenadas, que passamos a explorar.

Suponhamos que dois observadores em movimento relativo analisam um pulso de luz. Cada observador está em repouso nos referenciais \(S\) e \(S^{\prime}\) com origens respectivamente em \(O\) e \(O^{\prime} . \hspace{0.75em} S^{\prime}\) se move com velocidade \(v\) no direção do eixo \(Ox\) em relação a \(S\). Como a velocidade da luz é a mesma em todos os referenciais inerciais, o que foi demonstrado pelo experimento de Michelson-Morley, os observadores devem ver o pulso de luz se afastando de forma esférica. Se isto não fosse verdade um dos observadores seria capaz de determinar seu movimento relativo em relação ao outro, o que contradiz o princípio da relatividade. Consideremos ainda dois eventos infinitesimalmente próximos ligados por este raio de luz. Para os observadores em \(S\) e \(S^{\prime}\) estes eventos estarão separados por \(ds^{\prime}\) e \(ds^{\prime,}\) respectivamente dados por
$$
ds^2 = – dt^2 + dx^2 + dy^2 + dz^2,
$$

$$
ds^{\prime 2} = – dt^{\prime 2} + dx^{\prime 2} + dy^{\prime 2} +
dz^{\prime 2} .
$$

(5) Na verdade esta conclusão é uma inferência. Experimentalmente não é possível
observar o movimento de uma partícula em um ambiente totalmente livre de campos de força.

(6) Transformação lineares levam retas em retas.

Devido à invariância da velocidade da luz estas separação deverão ser iguais, \(ds^{\prime 2} = ds^2\). Observamos que a transformação de Galileu não deixa invariante uma frente de onda de luz que satisfaz, no referencial em repouso com relação à fonte, a equação \(x^2 + y^2 + z^2 = c^2 t^2\). Sabemos da observação(5) que partículas livres seguem trajetórias que são linhas retas e isto deve ser preservado em qualquer referencial inercial. Procuramos então uma transformação linear(6) na forma de
$$
\begin{array}{cl}
x^{\prime} & = \alpha x + \mu t\\
y^{\prime} & = y\\
z^{\prime} & = z\\
t^{\prime} & = \lambda x + \delta t,
\end{array}
$$

onde \(\alpha, \hspace{0.75em} \beta, \hspace{0.75em} \gamma \hspace{0.75em} \text{e} \hspace{0.75em} \delta \hspace{0.75em} \) são constantes a determinar. Sem perda de generalidade podemos colocar o observador fixo na origem de \(S^{\prime}\) e, portanto, sua coordenada \(x^{\prime} = 0\) enquanto \(x\) será sua coordenada do ponto de vista do observador em \(S\). Como consequência
$$
x^{\prime} = \alpha x + \mu t = 0 \Rightarrow \frac{x}{t} = v = –
\frac{\mu}{\alpha} .
$$

Já um observador fixo na origem de \(S\) \(\left( x = 0 \right)\) terá em \( S^{\prime} \) as coordenadas
$$
x^{\prime} = – \alpha vt ; \hspace{0.75em} t^{\prime} = \delta t.
$$

O referencial \(S\) se afasta de \(S^{\prime}\) com velocidade \(– v\) e
$$
\frac{x^{\prime}}{t^{\prime}} = – v = – \frac{\alpha}{\delta} v
$$

e, portanto \(\alpha = \delta\). Resta descobrir \(\alpha\) e \(\gamma\) na transformação
$$
\begin{array}{cl}
x^{\prime} & = \alpha \left( x – vt \right)\\
t^{\prime} & = \lambda x + \alpha t.
\end{array}
$$

Para o observador em \(S^{\prime}\) a frente de onda será vista como
$$
x^{\prime 2} + y^{\prime 2} + z^{\prime 2} = c^2 t^{\prime 2} \Rightarrow
\alpha^2 \left( x – vt \right)^2 + y^2 + z^2 = c^2 \left( \lambda x +
\alpha t \right)^2 \Rightarrow
$$

$$
x^2 \left( \alpha^2 – \lambda^2 c^2 \right) + y^2 + z^2 – 2 xt \left(
\alpha^2 v + c^2 \alpha \lambda \right) = c^2 t^2 \left( \alpha^2 –
\alpha^2 v^2 / c^2 \right) .
$$

Para igualarmos esta expressão à \(x^2 + y^2 + z^2 = c^2 t^2\) devemos ter
$$
\alpha^2 – \lambda^2 c^2 = 1 ; \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \alpha^2 – \alpha^2 v^2 / c^2 ;
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \alpha^2 v
+ c^2 \alpha \lambda = 0,
$$

cuja solução é
$$
\alpha = \frac{1}{\sqrt{1 – \left( v / c \right)^2}}, \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \lambda = \frac{- v /
c^2}{\sqrt{1 – \left( v / c \right)^2}} .
$$

As transformações de coordenadas que deixam invariante a frente de onda luminosa são as chamadas transformações de Lorentz e são dadas por

(5)

$$
x^{\prime} = \frac{x – vt}{\sqrt{1 – \left( v / c \right)^2}},
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} y^{\prime} = y
$$

$$
t^{\prime} = \frac{t – vx / c^2}{\sqrt{1 – \left( v / c \right)^2}},
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em} z^{\prime} =
z. \label{TransfLorentz}
$$
As transformações inversas, para se transformar a descrição do referencial \(S^{\prime}\) para \(S\) , pode ser obtida simplesmente lembrando que \(S\) se move com velocidade \(– v\) em relação a \(S^{\prime}\). Portanto
$$
x = \frac{x^{\prime} + vt^{\prime}}{\sqrt{1 – \left( v / c \right)^2}},
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} y = y^{\prime}
$$

$$
t = \frac{t^{\prime} + vx^{\prime} / c^2}{\sqrt{1 – \left( v / c
\right)^2}}, \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} z = z^{\prime} .
$$

Revisando a contração espacial e dilatação temporal

Uma vez obtidas as transformações de Lorentz os efeitos da contração espacial e dilatação \ temporal se tornam mais fáceis de serem verificados. Suponha por exemplo, que queremos medir o comprimento de uma régua que tem uma ponta em \(x_1\) e a outra em \(x_2\). No referencial de repouso seu comprimento será
$$
L_0 = x_2 – x_1 .
$$

Para um observador em movimento, com velocidade \(v\) ao longo do comprimento da régua, seu comprimento será
$$
L = x_2^{\prime} \left( t^{\prime} \right) – x_1^{\prime} \left( t^{\prime}
\right) .
$$

Observe que as medidas de cada ponto devem ser feitas no mesmo instante, \(t^{\prime}\). De acordo com a transformação de Lorentz temos
$$
x^{\prime} = \gamma \left( x – vt \right) \Rightarrow x = \gamma \left(
x^{\prime} + vt^{\prime} \right)
$$

e, portanto,
$$
\begin{array}{cl}
x_2 = & \gamma \left( x_2^{\prime} + vt^{\prime} \right)\\
x_1 = & \gamma \left( x_1^{\prime} + vt^{\prime} \right)
\end{array} .
$$

Dai podemos concluir que o observador em movimento mede um comprimento \(L\) para a régua menor que o medido no referencial de repouso:
$$
L_0 = x_2 – x_1 = \gamma \left( x_2^{\prime} – x_1^{\prime} \right) =
\gamma L.
$$

Invariância da equação de onda

Um exercício interessante pode ser feito para mostrar que a equação a equação de onda para a luz é invariante sob a transformação de Lorentz. Das equações de Maxwell se pode deduzir que a luz obedece a equação
$$
\left[ \frac{\partial^2}{\partial x^2} + \frac{\partial^2}{\partial y^2} +
\frac{\partial^2}{\partial z^2} – \frac{1}{c^2} \frac{\partial^2}{\partial
t^2} \right] \Phi \left( x, y, z, t \right) = 0,
$$

que é a equação de onda se propagando com velocidade \(c\). Em um referencial em movimento \(S^{\prime}\) teremos
$$
\left[ \frac{\partial^2}{\partial x^{\prime 2}} +
\frac{\partial^2}{\partial y^{\prime 2}} + \frac{\partial^2}{\partial
z^{\prime 2}} – \frac{1}{c^2} \frac{\partial^2}{\partial t^{\prime 2}}
\right] \Phi \left( x^{\prime}, y^{\prime}, z^{\prime}, t^{\prime} \right)
= 0
$$

sendo que \(\Phi\) é um escalar, satisfazendo portanto \(\Phi \left( x, y, z, t \right) = \Phi \left( x^{\prime}, y^{\prime}, z^{\prime}, t^{\prime} \right)\). Para simplificar as operações vamos considerar o caso de uma onda plana, com propagação na direção de \(x\) apenas, descrita por \(\Phi \left(x, t \right)\). Para relacionar as derivadas temos
$$
x^{\prime} = \gamma \left( x – vt \right) ; \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} t^{\prime} = \gamma \left( t – vx / c^2
\right),
$$

e, portanto, as derivadas espaciais e temporal em termos das novas
variáveis:
$$
\frac{\partial \Phi}{\partial x} = \frac{\partial \Phi}{\partial
x^{\prime}} \frac{\partial x^{\prime}}{\partial x} + \frac{\partial
\Phi}{\partial t^{\prime}} \frac{\partial t^{\prime}}{\partial x} = \gamma
\frac{\partial \Phi}{\partial x^{\prime}} – \frac{\gamma v}{c^2}
\frac{\partial \Phi}{\partial t^{\prime}},
$$

$$
\frac{\partial \Phi}{\partial t} = \frac{\partial \Phi}{\partial
x^{\prime}} \frac{\partial x^{\prime}}{\partial t} + \frac{\partial
\Phi}{\partial t^{\prime}} \frac{\partial t^{\prime}}{\partial t} = –
\gamma v \frac{\partial \Phi}{\partial x^{\prime}} + \gamma \frac{\partial
\Phi}{\partial t^{\prime}} .
$$

Os operadores derivadas se relacionam, nos dois sistemas de coordenadas, da seguinte forma:
$$
\frac{\partial}{\partial x} = \gamma \frac{\partial}{\partial x^{\prime}} –
\frac{\gamma v}{c^2} \frac{\partial}{\partial t^{\prime}} ;
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \frac{\partial}{\partial t}
= – \gamma v \frac{\partial}{\partial x^{\prime}} + \gamma
\frac{\partial}{\partial t^{\prime}} .
$$

Podemos construir a regra de transformação para as derivadas segundas,
$$
\frac{\partial^2}{\partial x^2} = \frac{\partial}{\partial x} \left(
\frac{\partial}{\partial x} \right) = \left( \gamma
\frac{\partial}{\partial x^{\prime}} – \gamma \frac{v}{c^2}
\frac{\partial}{\partial t^{\prime}} \right) \left( \gamma
\frac{\partial}{\partial x^{\prime}} – \gamma \frac{v}{c^2}
\frac{\partial}{\partial t^{\prime}} \right) =
$$

$$
= \gamma^2 \left( \frac{\partial^2}{\partial x^{\prime 2}} – \frac{2
v}{c^2} \frac{\partial^2}{\partial x^{\prime} \partial t^{\prime}} +
\frac{v^2}{c^4} \frac{\partial^2}{\partial t^{\prime 2}} \right) ;
$$

$$
\frac{\partial^2}{\partial t^2} = \frac{\partial}{\partial t} \left(
\frac{\partial}{\partial t} \right) = \left( – \gamma v
\frac{\partial}{\partial x^{\prime}} + \gamma \frac{\partial}{\partial
t^{\prime}} \right) \left( – \gamma v \frac{\partial}{\partial x^{\prime}}
+ \gamma \frac{\partial}{\partial t^{\prime}} \right) =
$$

$$
= \gamma^2 \left( v^2 \frac{\partial^2}{\partial x^{\prime 2}} – 2 v
\frac{\partial^2}{\partial x^{\prime} \partial t^{\prime}} +
\frac{\partial^2}{\partial t^{\prime 2}} \right) .
$$

Escrevendo a equação de onda no referencial em movimento temos
$$
\left[ \frac{\partial^2}{\partial x^2} – \frac{1}{c^2}
\frac{\partial^2}{\partial t^2} \right] \Phi = 0 \Rightarrow
$$

$$
\gamma^2 \left[ \frac{\partial^2 \Phi}{\partial x^{\prime 2}} \left( 1 –
\frac{v^2}{c^2} \right) – \frac{1}{c^2} \frac{\partial^2 \Phi}{\partial
t^{\prime 2}} \left( 1 – \frac{v^2}{c^2} \right) \right] = 0,
$$

ou, simplesmente,
$$
\frac{\partial^2 \Phi}{\partial x^{\prime 2}} – \frac{1}{c^2}
\frac{\partial^2 \Phi}{\partial t^{\prime 2}} = 0,
$$

o que mostra a invariância da equação de onda sob transformações de Lorentz. De fato se pode mostrar que as equações de Maxwell são invariantes sob estas transformações. Lorentz deduziu corretamente a formas destas transformações à partir das equações do eletromagnetismo, mas não foi capaz de aplicá-las ao uso da mecânica, como fez Einstein.

Transformação de velocidades

A partir das transformações de Lorentz
$$
x^{\prime} = \gamma \left( x – vt \right), \hspace{0.75em} \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} y^{\prime} = y, \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} z^{\prime} = z,
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em} t^{\prime}
= \gamma \left( t – vx / c^2 \right),
$$

podemos obter uma expressão para a relação entre velocidades nos dois referenciais inerciais. Denotamos por
$$
u_x = dx / dt \text{e} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
u_x^{\prime} = dx^{\prime} / dt^{\prime}
$$

as velocidades em \(S\) e \(S^{\prime}\) respectivamente e calculamos as diferenciais
$$
dx^{\prime} = \gamma \left( dx – vdt \right), \hspace{0.75em}
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} dy^{\prime} = dy,
\hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em} dz^{\prime}
= dz, \hspace{0.75em} \hspace{0.75em} \hspace{0.75em} \hspace{0.75em}
dt^{\prime} = \gamma \left( dt – v / c^2 dx \right) .
$$

O componente em \(x\) da velocidade é
$$
u_x^{\prime} = \frac{dx^{\prime}}{dt^{\prime}} = \frac{dx – vdt}{dt – v /
c^2 dx} = \frac{u_x – v}{1 – v / c^2 u_x} .
$$

Na última igualdade dividimos numerador e denominador por \(dt\). Da mesma forma podemos encontrar o componente \(y\) ,
$$
u_y^{\prime} = \frac{dy^{\prime}}{dt^{\prime}} = \frac{dy}{\gamma \left( dt
– v / c^2 dx \right)} = \frac{u_y}{\gamma \left( 1 – v / c^2 u_x \right)},
$$

e o componente \(z\) ,
$$
u_z^{\prime} = \frac{dz^{\prime}}{dt^{\prime}} = \frac{dz}{\gamma \left( dt
– v / c^2 dx \right)} = \frac{u_z}{\gamma \left( 1 – v / c^2 u_x \right)} .
$$

Isto mostra que os vetores velocidades não se somam da mesma forma que na mecânica de Newton.

Exemplo: Uma partícula A se move com velocidade \(v_A = 0, 5 c\) no referencial do laboratório, e emite uma partícula B com velocidade \(v_B = 0, 5 c\) em relação à sua própria velocidade. Qual a velocidade \(W\) da partícula B no laboratório? O laboratorio tem velocidade \(– v_A\) em relação a partícula:
$$
W = \frac{v_A + v_B}{1 + v_A v_B / c^2} = \frac{c}{1 + \left( 0, 5
\right)^2} = 0, 8 c.
$$

Tempo Próprio

Vimos que as medidas do tempo variam com a velocidade do observador que analisa o fenômeno sob consideração. O tempo próprio \(\tau\) de uma partícula é definido como o tempo medido por um observador que se move junto com a partícula, no chamado referencial comóvel. Neste caso \(dx = dy = dz = 0\) para o este observador. Como a separação em \(M_4\) é invariante temos, em comparação com um outro observador qualquer, temos que
$$
ds^2 = – c^2 d \tau^2 = – c^2 dt^2 + dx^2 + dy^2 + dz^2,
$$

ou seja,
$$
d \tau^2 = dt^2 – \frac{1}{c^2} \left( dx^2 – dy^2 – dz^2 \right) = \left(
1 – \frac{v^2}{c^2} \right) dt^2,
$$

onde foi feita a substituição
$$
v^2 = \left( \frac{dx}{dt} \right)^2 + \left( \frac{dy}{dt} \right)^2 +
\left( \frac{dz}{dt} \right)^2,
$$

sendo \(v\) a velocidade relativa entre os dois referenciais e, por conseguinte, a velocida da partícula estudada pelo observador não comóvel. Podemos ainda escrever
$$
d \tau = dt \sqrt{1 – \left( v / c \right)^2} = dt \sqrt{1 – \beta^2}
$$

e, como consequência
$$
\frac{dt}{d \tau} = \frac{1}{\sqrt{1 – \beta^2}} .
$$

O tempo próprio é um escalar
$$
d \tau^2 = \frac{- 1}{c^2} ds^2
$$

e portanto invariante sob mudanças de coordenadas que satisfazem as transformações de Lorentz. Por este motivo é um bom candidato a ser usado como parâmetro nas equações do movimento.

 

A estrutura do espaço-tempo