A História do Cálculo

O Cálculo Diferencial e Integral

A palavra Cálculo vem do latim calculus, que significa pedregulho e é uma reminiscência da técnica primitiva de executar operações matemáticas simples por meio de pequenas pedras. Calculi eram as pessoas que contavam, calculones os professores. Escravos que tinham a função de contadores eram chamados de calculatores enquanto homens livres com a mesma tarefa recebiam a designação de numerarii.

O Cálculo, como o estudo das operações de diferenciação e integração, é o nome de um sistema ou método desenvolvido independentemente em grande parte por Newton e Leibniz no século XVII. O termo cálculo foi usado pela primeira vez por Leibniz em seu livro publicado em 1680, Os Elementos de um novo Cálculo das Diferenças e Somas, Tangentes e Quadraturas, Máximos e Mínimos, Medidas de Linhas, Superfícies e Sólidos e outras coisas que transcendem o cálculo usual.

O Cálculo é o resultado de uma longa série de avanços, iniciados com a geometria grega, na tentativa de estabelecer áreas de figuras com forma arbitrária, volumes de sólidos quaisquer, no estudo do movimento dos corpos e de sua velocidade instantânea bem como, no que consiste o problema inverso, o cálculo das distâncias percorridas conhecida sua velocidade a cada momento. A expressão Cálculo Infinitesimal foi usada por muitos anos como referência ao cálculo. O conceito de infinitesimal como uma quantidade arbitrariamente pequena foi amplamente empregado pelos matemáticos na ausência de uma teoria apropriada para os limites. Este desenvolvimento somente se deu no sééculo XIX. Como conjunto de métodos matemáticos o cálculo se distingue da álgebra elementar e da geometria pela introdução da operação de passagem ao limite. As operações básicas do cálculo são a diferenciação e a integração, sendo ambos os conceitos utilizados em diversas situações tanto teóricas quanto em aplicações na física e engenharia, estatística, economia e em praticamente todas as áreas científicas modernas.

Os Primórdios Gregos

As idéias principais que formam a base do cálculo diferencial e integral foram desenvolvidas durante um longo intervalo de tempo, sendo que os primeiros passos foram dados pelos matemáticos gregos, em particular buscando soluções para problemas geométricos. Para os gregos, e em particular para a escola pitagórica que teve grande influência nas gerações posteriores de pensadores, o número um era considerado um átomo ou mônada formadora de todos os outros números. Desta forma os demais números eram compostos por uma quantidade de uns ou razões, entendidas como a divisão entre segmentos de comprimento inteiro. Daí o apreço pelos racionais e a dificuldade em aceitar números que não pertencem a este conjunto, como o número \(\pi\) ou \(\sqrt{2}\). Neste sentido eles acreditavam que nem todos os comprimentos pudessem ser representados por números. Tampouco trabalhavam com números negativos e não possuiam grande desenvolvimento em álgebra.

Zenão de Eléia (~450 a.C.) foi um dos primeiros pensadores a propor problemas baseados no conceito de infinito. Segundo um paradoxo famoso imaginado por ele, se uma flecha é atirada do ponto \(A\) até o ponto \(B\) ela deverá passar pela metade do caminho, digamos pelo ponto \(B_1\) , antes de chegar ao destino \(B\). Mas, antes de chegar a \(B_1\) deverá passar por \(B_2\) , o ponto médio entre \(A\) e \(B_1\) , e assim sucessivamente, realizando um número infinito de etapas em um intervalo finito de tempo. Desta forma ele concluiu que o movimento era impossível. Sabemos hoje que o conceito de limite é o que falta para a plena compreensão do paradoxo. Leucipo, Demócrito e Antífon fizeram contribuições para o método de exaustão mais tarde aprimorado por Eudóxo (~370 a.C.) e Arquimedes. O método é assim chamado porque as áreas medidas são tomadas em aproximações sucessivas e crescentes até que cubram a figura considerada.

Na visão de alguns historiadores o verdadeiro precursor do cálculo foi Arquimedes que viveu de 287 até 212 a.C. e, segundo se acredita, foi aluno de Euclides em Alexandria. Arquimedes aperfeiçoou o método da exaustão para a prática da integração buscando encontrar áreas de figuras planas. Em seu livro A Medida do Círculo ele mostrou que o valor exato do número \(\pi\) está entre \(\frac{310}{71}\) e \(\frac{31}{7}\) , aproximação que obteve inscrevendo e circunscrevendo o círculo em um polígono regular de 96 lados. Ele também descreveu uma técnica para o cálculo de raízes e inventou um sistema para a expressão de números grandes. Em O Contador de Areia (ou O Arenário) ele sugeriu um sistema de notação numérica capaz de expressar números até \(8\times 10^{63}\) argumentando que este é um número suficientemente grande para contar todos os grãos de areia do universo. Para estimar as dimensão do universo ele se baseava no sistema de Aristarco, que tinha o Sol no centro do sistema planetário que incluia a Terra.

Arquimedes também enunciou teoremas fundamentais concernentes ao centro de gravidade de figuras planas e sólidos. Seu teorema mais famoso, o chamado Princípio de Arquimedes, permite o cálculo do peso de um objeto imerso em água. Mais tarde ele introduziu algumas das contribuições mais significativas feitas na Grécia. Em primeiro lugar mostrou que a área de um segmento de parábola é \(\frac{4}{3}\) da área de um triângulo de mesma base e vértice e \(2/3\) da área de um paralelogramo circunscrito. Arquimedes construiu uma sequência infinita de triângulos partindo de um triângulo com área \(A\) e somando repetidamente novos triângulos entre os existentes e a parábola, até chegar a
$$A,\,A+\frac{1}{4},\,A+\frac{1}{4}+\frac{1}{16},\,A+\frac{1}{4}+\frac{1}{16}+\frac{1}{64},\ldots$$

A área do segmento de parábola é, portanto
$$ A \left( 1+\frac{1}{4} + \frac{1}{4^2} + \frac{1}{4^3} + \ldots \right) = A\sum_{n=0}^{\infty} = \frac{1}{4^n}= \left( \frac{4}{3} \right) A $$

Este é o primeiro exemplo histórico da soma de uma série infinita. Arquimedes também usou o método da exaustão para calcular aproximadamente a área de um círculo, no que consiste em um exemplo bem antigo do uso da integração para uma avaliação aproximada do número \(\pi\).

Figura 1: Quadratura do círculo e da parábola

Usando este método Arquimedes foi capaz de calcular o volume da esfera, o volume e a área do cone, a superfície subentendida por uma elipse, o volume obtido por revolução de qualquer segmento de uma parábola ou hipérbole.

Conta-se que Arquimedes estava fazendo contas na areia quando foi morto por um soldado romano.

Arquimedes foi morto em 212 a.C. quando Siracusa foi tomada pelos soldados romanos durante a Segunda Guerra Púnica apesar da ordem expressa do imperador romano para que sua vida fosse poupada. Esta morte se tornou um símbolo da destruição da civilização grega e de seu ímpeto na busca de resposta para questões científicas e filosóficas. Estes eventos determinaram, pelo menos parcialmente, a entrada da civilização ocidental em um longo período de estagnação cultural durante os princípios da Idade Média.

Desenvolvimento na Idade Média e Renascimento

(1) Apesar disto durante a Idade Média os algarismos hindu-arábicos foram difundidos na Europa, em particular devido ao trabalho de Fibonacci e alguns avanços sobre a solução de equações de segundo e terceiro grau foram obtidos.
(2) Uma crença derivada das idéias platônicas e pitagóricas.

Com o progresso das invasões romanas e o declínio geral da civilização grega a matemática passou por longos anos sem receber aprimoramentos importantes. A civilização romana era voltada para o uso pragmático da matemática e poucas descobertas marcaram este período. Mais tarde, com a expansão do império, tornou-se difícil mantê-lo unificado, o que motivou sua separação em império do ocidente, dirigido por Roma, e império bizantino, com sede em Constantinopla. O enfraquecimento do poder de Roma, as invasões dos germanos e outros povos vindos do norte da Europa, e o fortalecimento da igreja romana deram origem ao período conhecido como Idade Média, durante o qual grande parte dos textos científicos e filosóficos foi destruída e a cultura clássica foi quase totalmente esquecida(1). Esta situação durou até o final do século XVI d.C. com o Renascimento, caracterizado pelo avivamento do interesse pelos problemas relacionados ao movimento, tais como o estudo dos corpos em queda livre e de centros de gravidade. As idéias principais que se sucederam na formação da base do cálculo foram desenvolvidas durante um longo intervalo de tempo.

Luca Valério (1552-1618), um doutor em filosofia e teologia, publicou em Roma, 1604, seu livro De centro gravitatis onde empregava os métodos de Arquimedes para calcular volumes e centros de gravidade de corpos sólidos. Em 1606 ele publicou De quadratura parabolae onde empregava os métodos gregos para calcular áreas de figuras planas. Valério se encontrou com Galileu Galilei na cidade de Pisa em 1590 e iniciou com ele uma troca de correspondência. Em 1916 o Cardeal Belarmino, o principal teólogo da igreja Católica Romana da época, emitiu uma declaração oficial de que eram falsas as idéias de Copérnico e Valério se viu obrigado a interromper seu contato com Galilei, um dos principais defensores das idéias copernicanas.

Johannes Kepler

Kepler (1571-1630) também era um homem profundamente religioso que acreditava ser uma obrigação cristã a tarefa de compreender e revelar os segredos de Deus. Ele defendia que o ser humano, sendo feito a imagem de seu criador, deveria ser capaz de entender o Universo por ele criado e que a criação de tudo havia sido elaborada sobre um plano matemático(2). Uma vez que a matemática era, já na época, tida como um instrumento eficaz de se chegar à verdade, ele elaborou sua estratégia para a obtenção do conhecimento.

Em seu estudo sobre o movimento planetário Kepler precisava encontrar a área de setores de uma elipse. Seu método consistia em considerar as áreas como uma soma de linhas, outra forma primitiva de abordar uma integração. No entanto Kepler não se esforçou para manter um grande rigor em seu trabalho, tendo cometido erros que, por sorte, se cancelavam permitindo a obtenção de resultados corretos. Há um relato de que, durante a cerimônia de seu segundo casamento em 1613, Kepler teria notado que o volume dos barris de vinho era calculado por meio de uma barra inserida pelo orifício do barril para medir sua diagonal. Ele passou a considerar como este método poderia funcionar e, como resultado de suas meditações, publicou diversos artigos sobre volumes de sólidos de revolução. Seus métodos foram aperfeiçoados por Cavalieri e constituem parte importante do legado ancestral do cálculo diferencial.

As próximas contribuições importantes foram alcançadas por três matemáticos nascidos aproximadamente na mesma época: Cavalieri, Roberval e Fermat. O primeiro deles, Bonaventura Cavalieri (1598 – 1647), se tornou jesuíta quando ainda era criança e estudou em um monastério de Pisa. Assim como ocorreu com Luca Valério, seu interesse pela matemática foi despertado pelo estudo das obras de Euclides e seu contato com Galileu, de quem ele se considerava discípulo.

Em 1629 Cavalieri foi indicado como professor de matemática em Bologna. Nesta época ele já tinha desenvolvido seu método dos indivisíveis para o cálculo de áreas, um fator importante para o desenvolvimento do cálculo integral. A teoria dos indivisíveis de Cavalieri, apresentada em 1635 era um aprimoramento do método da exaustão de Arquimedes, incorporando a teoria das quantidades geométricas infinitesimalmente pequenas de Kepler. Por meio desta teoria Cavalieri podia calcular de forma prática e eficiente a área e volume de diversas figuras geométricas. Ele não era muito rigoroso em seu trabalho e não é fácil hoje entendermos como ele concebia seu método. Aparentemente Cavalieri considerava uma área como composta de componentes que eram retas e, a partir dai, somava um número infinito de “indivisíveis”. Usando esta técnica ele mostrou que a área sob a curva \(x^n\) avaliada de \(0\) até um número arbitrário \(a\) era \(a^{n+1}/(n+1)\) mostrando inicialmente que o resultado valia para alguns valores de \(n\) e depois inferindo sua validade para o caso geral.

(3) Os logaritmos foram inventados por John Napier (também conhecido por Neper) e aperfeiçoados por Briggs no século XVII.
(4) Marin Mersenne (1588-1648, França) foi um padre católico responsável pela formação de um grupo de debates envolvendo matemáticos importantes da época, tais como Fermat, Pascal, Roberval e outros que, mais tarde, formaram o núcleo da Academia Francesa. Mersenne se correspondia com diversos pensadores importantes e foi o responsável pela divulgação de suas idéias, algumas vezes contra a vontade do próprio pensador. Ele defendeu Descartes e Galileu contra os ataques teológicos e se esforçou para denunciar como pseudo-ciências as práticas da alquimia e astrologia.

Como resposta às críticas de que seus métodos não possuíam um embasamento teórico muito rigoroso Cavaliere publicou Exercitationes geometricae onde aperfeiçoava os fundamentos de sua teoria. Este texto se tornou a principal fonte de estudos dos matemáticos do século XVII. Cavalieri foi também um dos grandes responsáveis pela introdução dos logaritmos(3) na Itália como um instrumento computacional, tendo publicado tabelas de logaritmos e funções trigonométricas para uso dos astrônomos da época. Cavalieri também escreveu sobre as seções cônicas, trigonometria, óptica, astronomia e astrologia.

Gilles Personne de Roberval (1602-1675, França) iniciou seus estudos de matemática com 14 anos de idade. Ele viajou por toda a França fazendo contato com matemáticos da época e foi um dos pensadores sob influência do grupo de Mersenne(4). Roberval considerou problemas do mesmo tipo que os de Cavalieri embora procurasse manter maior rigor que ele. Assim como fazia Torricelli, ele procurou descrever uma curva plana como um movimento gerado por um ponto cujo movimento se pode decompor em dois movimentos conhecidos, o que corresponde à descrição moderna de uma curva sob forma paramétrica. A resultante das velocidades dos dois movimentos conhecidos fornece a tangente da curva em cada ponto. Roberval desenvolveu métodos para a integração escrevendo Traité des indivisibles onde apresenta o cálculo da integral definida da função sen x. Ele também calculou o comprimento de arco de uma espiral, trabalhou com ciclóides e apresentou a descrição de diversas curvas planas, desenvolvendo um método já sugerido por Torricelli para se traçar retas tangentes a curvas dadas. Ele considerava a área entre uma curva e uma reta como sendo composta por um grande número de faixas muito estreitas. Usando este processo na avaliação da área sob de \(x^n\) de \(0\) até \(1\) ele obteve o valor aproximado de
$$ \frac{1}{n^{m+1}} \left( 0^m + 1^m +2^m + \ldots +(n-1)^m \right) $$

e mostrou depois, aplicando técnicas precursoras do conceito de limite, que este valor tendia para \(\frac{1}{m+1},\) calculando desta forma a área procurada.

Pierre de Fermat

Pierre de Fermat (1601-1665, França) também procurou trabalhar com rigor, embora não tenha fornecido provas de suas afirmações e nem mostrado de forma clara quais foram os métodos empregados para se obter um determinado resultado. Ele se formou em Direito pela Universidade de Toulouse mas logo se interessou pela matemática praticamente como um amador, estudando em suas horas vagas. Em 1629 ele produziu uma restauração da obra de Apolônio, Plane loci e, na mesma época, escreveu um trabalho importante sobre máximos e mínimos de funções procurando pelos pontos onde as tangentes às suas curvas são paralelas ao eixo \(Ox\). Ele escreveu a Descartes descrevendo seu método, que era essencialmente o mesmo usado hoje que consiste em encontrar pontos de derivada nula. Devido a este episódio Lagrange afirmou considerar Fermat o inventor do cálculo.

Fermat considerou parábolas e hipérboles generalizadas do seguinte modo:

$$ \mbox{Parábolas: } \frac{y}{a} = \left( \frac{x}{b} \right)^2 \mbox{ generalizando para } \left( \frac{y}{a} \right)^n = \left( \frac{x}{b} \right)^m, $$

$$ \mbox{Hipérboles: } \frac{y}{a} = \frac{b}{x} \mbox{ generalizando para } \left( \frac{y}{a} \right)^n = \left( \frac{b}{x} \right)^m. $$

(5) Euclides mostrou que a expressão de Pitágoras \(x^2+y^2=z^2\) admite infinitas soluções inteiras, os ternos pitagóricos.

Enquanto examinava expressões como \(\frac{y}{b} = \left( \frac{x}{b} \right)^p\), Fermat calculou a soma de \(r^p\) de \(r=1\) até \(r=n\). No período de 1643 até 1654 Fermat esteve em contato com seus colegas cientistas em Paris, sob a influência de Mersenne. Surgiu então o seu interesse pela teoria dos números. Ele se tornou amplamente conhecido particularmente pelo que hoje conhecemos como último Teorema de Fermat que afirma que a expressão \(x^n+y^n=z^n\) não admite solução(5) inteira diferente de zero para \(n≥3.\) Fermat escreveu na margem de seu livro Aritmetica de Diofante: “descobri uma prova realmente maravilhosa para este teorema mas estas margens são estreitas demais para contê-la” . Acredita-se hoje que a prova de Fermat, se existiu, era incorreta. As tentativas de demonstração do teorema motivaram muitas gerações de matemáticos e deu origem a diversas novas áreas na matemática, particularmente na álgebra. Apesar disto o teorema permaneceu sem demonstração por séculos, problema que só foi resolvido em 1994 pelo matemático inglês Andrew Wiles.

Além de sua contribuição fundamental para a geometria analítica René Descartes (1596-1650, França) foi responsável pelo desenvolvimento de um método para a determinação de normais, publicado no livro La Géométrie, 1637. Este livro é considerado o mais importante de seus trabalhos em matemática devido à inserção do formalismo algébrico na geometria. Nele se toma o primeiro passo na direção da teoria dos invariantes que remove a arbitrariedade de escolha de um referencial. A adoção do formalismo algébrico no tratamento da geometria torna possível a consideração de problemas que seriam difíceis ou impossíveis sem esta técnica.

René Descartes

De Beaune ampliou o método de Descartes e o aplicou à determinação de tangentes. Hudde descobriu um método mais simples, hoje conhecido como Regra de Hudde, onde as tangentes são obtidas através das derivadas. Tanto o trabalho de Descartes quanto o de Hudde foram de primordial importância para influenciar Newton e conduzi-lo a sua formulação do Cálculo.

Huygens foi um crítico das provas apresentadas por Cavalieri. Ele afirmava que é necessário pelo menos produzir uma prova que, mesmo que incompleta, leve à convicção de que uma prova posterior, totalmente rigorosa, possa ser estabelecida. Ele exerceu uma influência profunda em Leibniz e, através deste, representa papel importante na construção de uma abordagem mais satisfatória do cálculo.
fig Triângulo de Barrow

Os esforços de Torricelli e Barrow representam os passos seguintes de maior importância. Barrow foi o responsável pelo método de construção de tangentes a uma curva como o limite de uma corda secante quando os pontos que a definem se aproximam um do outro. Este método é conhecido como o triângulo diferencial de Barrow.

Tanto Torricelli como Barrow trataram do problema do movimento com velocidade variável. A derivada da distância em função do tempo é uma velocidade, enquanto a operação inversa permite que, conhecida a função velocidade a cada instante se possa obter, por integração, a distância percorrida. A partir dai foi desenvolvido o conceito de integração como o inverso da diferenciação. Barrow compreendia que a derivada e a integral são processos complementares, um o inverso do outro. Embora Barrow nunca tenha afirmado explicitamente o teorema fundamental do cálculo ele estava trabalhando nesta direção. Coube a Newton, que foi aluno de Barrow, continuar este trabalho e fazer a primeira afirmação explícita do teorema.

Isaac Newton

“Platão é meu amigo, Aristóteles é meu amigo, mas a Verdade é a minha melhor amiga.”
Isaac Newton (1643 – 1727)

Issac Newton (1642-1727) nasceu no ano da morte de Galileu Galilei em Woolsthorpe, Inglaterra. Ele veio de uma família abastada, embora seu pai fosse um homem com pouca educação formal. Newton teve uma infância infeliz, não tendo conhecido seu pai que morreu antes que ele completasse um ano de idade. Sua mãe, Hannah Ayscough, se casou com o ministro da igreja de um vilarejo próximo e o jovem Isaac foi deixado com seus avós. Há indícios de que Newton sofreu de forte ressentimento pelo casamento da mãe, ao mesmo tempo em que não desenvolveu vínculos fortes com os avós.

Com a morte do padrasto em 1653, Newton passou a viver com a mãe, avó, um meio-irmão e duas meia-irmãs. Como estudante ele demonstrava poucas habilidades e interesse e, por isto, foi tirado da escola para cuidar dos interesses financeiros de sua mãe. Newton também não mostrou interesse em realizar esta tarefa. Em 1960, por influência de William Ayscough, tio de Newton, a família decidiu prepará-lo para a educação superior. Nesta época ele se alojava com a família de Stokes, o chefe da escola, que percebendo os talentos de Newton, foi um dos responsáveis por convencer a família de que ele possuía habilidades para o trabalho acadêmico.

Pouco se conhece sobre o que Isaac teria aprendido antes de ingressar na universidade, particularmente em matemática. Com certeza ele recebeu de Stokes um bom impulso e orientação e é possível que tenha tido o primeiro contato com Os Elementosde Euclides nesta época. Há um número de pequenas histórias, sem maior comprovação, de que Newton era hábil com as máquinas e gostava de construir modelos de relógios e moinhos.

Finalmente, em 1661, quando já era mais velho que a maioria dos colegas, Newton ingressou no Trinity College de Cambridge. Apesar de sua posição financeira confortável ele entrou como um sizar, uma espécie de posição de serviçal em relação aos outros colegas. Newton pretendia inicialmente se formar em Direito.

O currículo em Cambridge naquela época era dominado pelos estudos da filosofia aristotélica até o terceiro ano. A partir dai Newton se dedicou a estudar os textos de Descartes, Gassendi, Hobbes e, em particular, de Boyle. Ele também mostrou interesse pelas teorias revolucionárias de Copérnico, Kepler e Galileu em astronomia e ótica. Gradualmente ele se envolveu com o estudo da matemática e da física. Existe um relato, por parte de de Moivre, de que seu interesse pela matemática foi incrementado em 1663 quando comprou um livro de astronomia e não pode entender a matemática envolvida. Dai ele passou a fazer um esforço para aprimorar seu conhecimento desta disciplina, principalmente através do estudo de uma versão de Barrow de Os Elementos de Euclides. Em seguida ele passou a estudar a recém desenvolvida geometria analítica através dos textos de Viète e René Descartes. Neste período ele aprendeu sobre o método de Wallis para encontrar um quadrado com área sob segmentos da parábola e da hipérbole, usando os indivisíveis.

Ao receber sua graduação em abril de 1665 Newton não havia ainda mostrado toda a sua genialidade. Em 1665 a universidade foi fechada por causa da epidemia da peste negra (peste bubônica) que se espalhava por toda a Europa e Inglaterra. Newton se recolheu na casa de sua mãe onde aprofundou, por conta própria, seus estudos e investigações. Com menos de 25 anos de idade ele iniciou sua carreira fazendo contribuições importantes para a matemática, mecânica, ótica e astronomia. Neste período, como ele próprio relatou depois, ele fez quatro de suas grandes descobertas: o teorema binomial, o cálculo, a lei da gravitação universal e a natureza das cores. O método dos fluxos, como ele denominava o cálculo, estava baseado no reconhecimento fundamental de que as operações de derivação e integração estavam associadas, sendo simplesmente uma a operação inversa da outra. Partindo da derivação com operação básica ele desenvolveu técnicas analíticas que unificavam diversas abordagens anteriores para solucionar questões que antes se julgava serem não correlacionadas, tais como o cálculo de áreas, tangentes a curvas, comprimento de segmentos de curvas e a localização de máximos e mínimos de funções.

Quando a Universidade de Cambridge reabriu, ao término da peste negra em 1667, Newton foi aceito como professor no Trinity College. Nesta época se iniciaram os esforços de Barrow para divulgar os resultados obtidos por Newton que mantinha um contato bastante restrito com a comunidade científica de sua época. Aparentemente por receio às críticas e ao plágio ele tendia a não expor de pronto os seus métodos e, quando o fazia, não os relatava com clareza.

Em outubro de 1666 Newton escreveu um tratado sobre os fluxos. Seu trabalho não foi imediatamente publicado mas muitos matemáticos da época o conheciam de forma que o tratado exerceu grande influência sobre o desenvolvimento do cálculo naquele período. Ele iniciou suas considerações tratando uma curva como sendo a trajetória de uma partícula, dada por suas coordenadas em função do tempo. Em linguagem moderna ele representava a curva de uma função sob a sua forma paramétrica, usando o tempo como parâmetro – uma forma bastante apropriada para quem deseja estudar o movimento de uma partícula. A velocidade no sentido horizontal \(\dot{x}\) e a velocidade vertical \(\dot{y}\) eram os fluxos de \(x\) e \(y\) associados à passagem do tempo. Com esta notação \(\frac{\dot{y}}{\dot{x}}\) representa a tangente à curva \(f(x,y)=0\).

Em seu tratado de 1666 Newton discute a problema inverso. Dada a relação entre \(x\) e \(\frac{\dot{y}}{\dot{x}}\) procurava-se encontrar \(y\). Desta forma a inclinação da tangente era dada para cada \(x\). Considerando conhecida a inclinação a cada instante, Newton resolvia o problema por antidiferenciação (integração). Ele também usou o mesmo processo para calcular áreas e, pela primeira vez na história, ele afirma claramente o Teorema Fundamental do Cálculo, que estabelece a conexão entre os processos de derivação e de integração.

Em 1671 Newton escreveu De Methodis Serierum et Fluxionum mas não o conseguiu publicar até que John Colson preparou uma tradução para o inglês em 1736. Newton encontrou diversas dificuldades para publicar seu textos em matemática e, de certa forma, Barrow tinha parte da responsabilidade por isto. Em tempos recentes os editores de Barrow tinha ido a falência e os demais editores se encontravam receosos em continuar a publicação de textos sobre matemática. O livro de Newton sobre Análise contendo um tratamento das séries infinitas foi escrito em 1669 e circulou pelos meios acadêmicos em forma manuscrita, só sendo publicado em 1711. Da mesma forma seu Method of fluxions and infinite series foi escrito em 1671 e somente traduzido para o inglês e publicado no ano de 1736. O original em latim só foi publicado muitos anos mais tarde.

Nestas duas obras Newton encontrou as expansões em séries de potências para as funções \(\mbox{sen}{x}\) e \(\cos{x}\) assim como a expansão para a função que hoje conhecemos como função exponencial. Naquele tempo não havia uma definição clara desta função, o que foi estabelecido bem mais tarde por Euler, também o responsável pela atual notação, \(e^x\). As expansões em séries de potências para funções analíticas são hoje conhecidas como séries de Taylor ou de Maclaurin, dependendo do ponto em torno dos quais são consideradas. Através das expansões em séries de potência para cada função

$$f(x) = a_0 + a_1 x + a_2 x^2 + \ldots + a_n x^n + \ldots $$

Newton resolveu o problema da quadratura, ou seja, o de encontrar áreas subentendidas pelas curvas destas funções, fazendo a integração termo e termo,
$$\int f(x)dx = a_0 x + \frac{a_1}{2} x^2 + \frac{a_2}{3} x^3 + \ldots + \frac{a_n}{n+1} x^n+1 + \ldots,$$
o que, como hoje se sabe, somente está correto se a série é convergente.

A obra seguinte de Newton, Tractatus de Quadratura Curvarum, foi escrito em 1693 e só publicado em 1704 sob a forma de um apêndice em seu livro Optiks. O Tractatus contém uma outra abordagem que envolve uma operação primitiva de tomar limites. Para ilustrar o método de Newton suponha, por exemplo, que queremos derivar a função \(y=x^2\). Lembrando que ele tratava as variáveis sob a forma \(x(t)\) e \(y(t)\), nas palavras de Newton “devido ao fluxo de \(x\) com a passagem do tempo”, quando o tempo progride de uma quantidade \(o\), as variáveis mudam da seguinte forma
$$ x = x(t), \;\; x \to x + \dot{x}o, $$
$$ y = y(t), \;\; y \to y + \dot{y}o. $$

Dada a relação entre \(x\) e \(y\) (\(y=x^2\), neste caso)
$$y \to y + \dot{y}o = \left(x + \dot{x}o\right)^2 = x^2 + 2 x \dot{x}o + \dot{x}^2 o^2,$$
$$\dot{y} o = 2 x \dot{x}o + \dot{x}^2 o^2 \Rightarrow \dot{y} = 2 x \dot{x} + \dot{x}^2 o.$$

Tomando \(o = 0\), no que deveria ser um limite, obtém-se \(\dot{y} o = 2x\dot{x}\). A taxa de variação de \(y\) com \(x\), que é a inclinação da reta tangente, é \(\frac{\dot{y}}{\dot{x}} = 2x\).

Como professor Lucasiano, o primeiro trabalho de Newton foi um curso dedicado à ótica, iniciado em janeiro de 1670. Neste curso ele ensinava que a luz branca não é uma entidade simples mas sim composta por luz de diversas cores, como se pode observar no espectro obtido por meio de um prisma. Vale ressaltar que, desde Aristóteles, sempre se acreditou no contrário. A observação do efeito de aberração cromática em telescópios levou Newton a esta conclusão, bem como à sugestão da construção de telescópios refletores, que se utilizam de espelhos parabólicos no lugar de lentes para a obtenção de uma imagem ampliada dos objetos celestes.

Em 1672 Newton foi aceito membro da Royal Society e publicou seu primeiro artigo sobre a luz e a cor no periódico Philosophical Transactions of the Royal Society. Este artigo foi bem aceito pela comunidade científica mas também deu origem a críticas e oposições. Hooke e Huygens argumentaram contra a tentativa de Newton de provar que a luz possuía natureza corpuscular e não ondulatória. Devido ao peso da opinião de Newton este foi um erro que persistiu por muito tempo no estudo da luz até que experiências com o fenômeno da refração, no século XIX, indicaram uma preferência pelo modelo ondulatório. Vale dizer que hoje existe um modelo corpuscular da luz, e da radiação eletromagnética em geral, como parte integrante da moderna teoria quântica. No entanto, nenhum dos fenômenos de que fato evidenciam a natureza corpuscular da luz era conhecido na época de Newton. As críticas recebidas levaram Newton a adotar uma posição ainda mais retraída e ser mais reticente com relação a suas descobertas. Embora apreciasse a notoriedade ele ressentia enormemente as críticas recebidas e julgava que uma forma de evitá-las seria evitar a publicação de suas idéias.

Cópia de Newton de seu próprio livro Princípia, com correções de seu punho para a segunda edição.

As relações de Newton com Hooke se deterioraram em 1675, quando Hooke o acusou de plágio em algumas de suas conclusões em ótica. Isto fez com que Newton adiasse a publicação de suas conclusões em ótica até a morte do adversário, em 1703. O livro Opticks só apareceu em 1704, tratando da teoria da luz e da cor.

Por volta de 1678, em parte devido a uma nova discussão com os jesuítas sobre sua teoria da luz e devido à morte de sua mãe, Newton sofreu seu primeiro colapso nervoso. Muitos historiadores sustentam a tese de que seu envolvimento com as experimentações alquímicas e subseqüente exposição a vapores de mercúrio e outros metais teria contribuído para fragilizar seu sistema nervoso. é certo que ele passou grande parte de sua vida estudando alquimia, religião cronologia do Apocalipse e outros temas esotéricos, tendo escrito diversos tratados sobre estes assuntos.

As maiores contribuições de Newton para a física foram suas descobertas sobre a mecânica e a gravitação universal. Partindo de sua própria compreensão de forças centrífugas e da terceira lei de Kepler para o movimento planetário ele deduziu que duas partículas de massa \(m_1\) e \(m_2\) respectivamente se atraem com intensidade diretamente proporcional a suas massa e inversamente proporcional ao quadrado da distância entre elas,
$$ F = G \frac{m_1 m_2}{r^2}.$$

Ele foi o responsável pelo entendimento de que a força que age sobre a Lua, por exemplo, é a mesma força que atrai uma maçã para o chão, nas proximidades da superfície. Este entendimento, simples para a mente moderna, representou um grande passo dentro de um contexto cultural que predominantemente acreditava que os objetos celestes eram de natureza divina, em oposição aos de natureza terrena, e que não deveriam obedecer às mesmas leis. Ele representa uma grande unificação de princípios, assim como aquela obtida mais tarde por Maxwell e outros físicos na unificação das teorias da eletricidade e do magnetismo.

Em 1686 Halley, astrônomo e amigo de Newton, o convenceu a publicar uma descrição completa de suas descobertas sobre física e astronomia. Um ano mais tarde ele publicou o Philosophiae Naturalis Principia Mathematica, ou simplesmente Principia, como se tornou conhecido o livro. Este é considerado por muitos historiadores da ciência como o maior livro científico já escrito. Nele Newton trata do movimento dos corpos em meios resistentes e não resistentes e sob a ação de forças centrípetas. Os resultados podem ser aplicados a órbitas celestes, projéteis, pêndulos e corpos em queda livre nas proximidades da superfície da Terra. Em seguida Newton forneceu explicações sobre as órbitas excêntricas dos cometas, as marés e suas variações, a precessão do eixo da Terra e a perturbação do movimento da Lua pela atração gravitacional do Sol. Este trabalho o transformou no principal cientista de sua época embora diversos pensadores da Europa continental e da própria Inglaterra relutassem em aceitar suas visões sobre a gravitação como ação à distância, sua teoria corpuscular da luz, sua versão do cálculo em contraposição à versão de Leibniz e outros tópicos localizados.

Em 1685 James II se tornou rei da Grã-Bretanha, se convertendo ao catolicismo em 1669. Em seguida ele passou a nomear apenas católicos para cargos nas forças armadas e outros postos oficiais de estado. Posteriormente o rei passou a preencher postos vagos na Universidade de Cambrigde com catedráticos fiéis à Igreja Católica. Quando ele insistiu para que um monge beneditino recebesse os graus acadêmicos sem a necessidade de prestar exames ou proferir os juramentos de praxe na época, Newton assumiu a posição de opositor declarado do rei, uma disputa que durou até a fuga de James II e a tomada do poder por William de Orange. Newton, já visto como o maior matemático de sua época, agora famoso pela firme defesa da Universidade, foi eleito para um cargo político no Parlamento. Isto resultou em sua mudança para Londres, com o conseqüente afastamento de Cambridge e das atividades acadêmicas.

Em 1693 Newton sofre um segundo colapso nervoso e abandona suas atividades de pesquisa. Desta vez, além do envenenamento por metais, podem ter contribuído o descuido com os hábitos alimentares, uma frustração com o impacto de suas pesquisas no meio acadêmico e a dificuldade em se relacionar com os colegas, muitas vezes advindas de diferenças em suas convicções religiosas. Além disto houve o rompimento de uma amizade pessoal com Fatio de Duillier, um matemático suiço que residia em Londres. é provável que ele tenha sofrido de depressão durante grande parte de sua vida.

Em 1696 Newton foi designado para o cargo de Guardião da Casa da Moeda, mais tarde Mestre da Casa da Moeda. Ele coordenou com grande eficiência um período difícil de recunhagem da moeda, necessário devido ao grande volume de moeda falsa em circulação na época. Além de eficiente Newton foi rígido na perseguição e punição dos falsificadores.

Em 1703 Newton foi eleito presidente da Royal Society, mantendo este cargo até o final de sua vida. Em 1705 ele foi feito cavalheiro pela rainha Anne, sendo o primeiro cientista a receber esta distinção como reconhecimento por seu trabalho. Contudo toda a última fase de sua vida foi dominada pelo ressentimento causado pela controvérsia com Leibniz sobre a autoria da Cálculo.

Gottfried Wilhelm von Leibniz

Gottfried Leibniz (1646-1716)

Leibniz (1646-1716) nasceu em Leipzig, Alemanha, filho de Friedrich Leibniz, um professor de filosofia moral e cristão fervoroso e Catharina Schmuck. Leibniz perdeu o pai com apenas seis anos e aprendeu da mãe os valores religiosos e éticos que nortearam sua vida e filosofia. Na escola ele aprendeu a lógica de Aristóteles. Insatisfeito com a filosofia aristotélica dominante na época ele iniciou o desenvolvimento de suas próprias idéias sobre como aperfeiçoá-la. Ainda criança ele apreciava ler os livros de seu pai sobre metafísica e teologia nas visões de escritores católicos e protestantes. O próprio Leibniz reconheceu mais tarde como uma constante em sua vida a preocupação em estabelecer um ordenamento por trás do pensamento lógico e da dedução matemática, assim como uma tentativa sempre presente de estabelecer contatos entre pontos de vista conflitantes e o de unificar os diversos sistemas de pensamento.

Ao completar 16 anos, algo não muito incomum na época, Leibniz entrou para a Universidade de Leipzig onde estudou filosofia e matemática. Nenhuma destas disciplinas era, na época, ensinada com grande nível de aprofundamento. Após sua graduação, obtida em 1663, ele passou um período em Jena estudando com com Erhard Weigel, um filósofo e matemático com quem aprendeu a importância do método de provas matemáticas em assuntos tais como lógica e filosofia. Em 1663 Leibniz retornou a Leipzig para o programa de doutorado em Direito. Lá ele obteve primeiro o grau de Mestre em filosofia, tendo sido mais tarde recusado para o grau de doutor em Direito. Aparentemente isto ocorreu porque ele era muito jovem e havia na época poucos orientadores disponíveis. Se esperava então que ele aguardasse um ano até sua aceitação. Ao invés de esperar Leibniz foi para a Universidade de Altdorf, recebendo o grau de doutor em Direito em 1667.

Uma vez formado Leibniz iniciou uma carreira voltada para a diplomacia enquanto participava em diversos projetos científicos, literários e políticos. Ele se relacionava igualmente bem com católicos e luteranos e manteve durante toda a sua vida um interesse em trabalhar para a reunificação das igrejas. Outro de seus projetos permanentes era a intenção de reunir de forma organizada todo o conhecimento acumulado até a sua época. Simultaneamente Leibniz começou a estudar o movimento buscando explicar os resultados obtidos por Wren e Huygens sobre colisões elásticas. Em 1671 ele publicou Hypothesis Physica Nova onde afirmava, em acordo com Kepler, que o movimento é decorrente da ação do espírito sobre a matéria. Neste período, passou a se comunicar com Oldenburg, o secretário da Royal Society de Londres, um dos responsáveis por seu contato com Isaac Newton.

Diferente de Newton, Leibniz apreciava viajar pela Europa fazendo contatos com outros matemáticos e filósofos, se aproveitando para isto de sua posição como diplomata. Juntamente com sua atuação na diplomacia ele iniciou suas primeiras tentativas para construir uma máquina calculadora. Em Paris, no anos de 1672, Leibniz estudou matemática e física com Christian Huygens de quem recebeu a sugestão de trabalhar com séries. Em 1673 Leibniz visita a Royal Society em Londres onde apresentou sua tentativa incompleta de construir sua calculadora. Nesta ocasião, em contatos com Hooke, Boyle e Pell ele se atualizou sobre os resultados mais recentes obtidos em séries. Mais tarde, embora ausente de Londres, Leibniz recebeu críticas na Royal Society, especialmente no que se referia à máquina de calcular. Estas críticas tiveram um efeito interessante sobre Leibniz. Ele percebeu que seus conhecimentos em matemática eram, de fato, incompletos e que necessitavam de aprimoramento. Sem se abater ele redobrou seus esforços se aprofundar nesta disciplina.

Leibniz foi aceito membro da Royal Society de Londres em 1673 e iniciou um estudo sobre a geometria dos infinitesimais, trocando correspondência sobres estes esforços com Oldenburg que, por sua vez, o informou sobre os avanços de Newton nesta área. Deve-se notar que, neste período, Leibniz não gozava de grande reputação com os membros Royal Society devido à sua incapacidade de concluir sua máquina calculadora. Simultaneamente Oldenburg desconhecia que ele havia, devido a seus esforços para se superar, se transformado em um gênio criativo da matemática.

Em Paris, na mesma época, Leibniz começou a desenvolver os princípios de sua versão do cálculo. Consciente de que, para o pleno desenvolvimento de uma ferramenta matemática, era necessária a adoção de uma notação consistente e de fácil manipulação ele dedicou um bom tempo para o estabelecimento de sua notação que é basicamente a mesma que usamos até hoje. é sabido que suas primeiras anotações eram confusas e de difícil leitura. Já em 1675 ele escreveu um artigo manuscrito onde usava pela primeira vez a notação \(f(x)dx.\) No mesmo artigo ele apresentou a regra para a diferenciação de um produto. Em 1676 Leibniz apresentou o conceito de diferencial, inclusive escrevendo
$$dx^n = n x^{n-1}dx,$$

para \(n\) inteiro ou fracionário.

Em 1696 Leibniz aceitou um cargo na biblioteca de Hanover, onde ficou até o fim de sua vida. Ele continuou mantendo contato com outros matemáticos da época e viajando pela Europa. Outros projetos foram iniciados neste período, tais como moinhos bombeadores de água para serem empregados em minas nas montanhas de Harz. Seus projetos tecnológicos não foram bem sucedidos mas suas observações sobre a geologia das montanhas o levaram a propor a hipótese de que a terra foi formada no passado por lava derretida.

Além de seus trabalhos em cálculo Leibniz obteve outros resultados importantes em matemática. Ele trabalhou com sistemas aritméticos binários e com o conceito de determinantes, usado na solução de sistemas de equações lineares. Sobre a mecânica ele questionou o sistema de Descartes e examinou os conceitos de energia potencial e cinética e de momento.

Leibniz era um homem atuante, que buscava difundir as idéias mais modernas e interagir com os demais pensadores de seu tempo. Ele esteve envolvido na formação de academias e sociedades científicas e não seria exagero dizer que ele esteve em contato com a maioria dos matemáticos da época. Um exemplo foi sua correspondência com Grandi, iniciada em 1703, onde se discutiu o paradoxo obtido ao se atribuir o valor \(x=1\) na expansão em série para
$$\frac{1}{a+x}= 1-x+x^2-x^3+⋯.$$

Na filosofia ele buscou aperfeiçoar seu sistema de redução do raciocínio a uma álgebra do pensamento. Ele publicou seu Meditationes de Cognitione, Veritate et Ideis (Reflexões sobre o Conhecimento, Verdade e Idéias) visando aperfeiçoar sua teoria do conhecimento. Em 1686 Leibniz escreveu Discours de Métaphysique e, em 1710, Théodicée onde tratava da questão da existência do mal em um mundo criado por Deus. Neste tratado ele afirmava que o mundo necessariamente teria que ser imperfeito, caso contrário não seria distinto de Deus. No entanto, deveria ser o mais perfeito possível sem, no entanto, violar a lei natural. A eliminação dos desastres naturais, segundo ele, envolveria alterações tão dramáticas na lei natural que resultariam em um mundo ainda pior. Em 1714 Leibniz escreveu Monadologia sintetizando sua obra filosófica.

Leibniz era um homem de interesse e atuação universais, um livre-pensador incansável. Profundamente dedicado ao entendimento mútuo entre pessoas, escolas e correntes de pensamento, ele deliberadamente optou por ignorar a fragmentação entre as disciplinas que, já naquela época, se instalava no ambiente das universidades. Ele julgava que uma eventual deficiência em sua formação em determinada disciplina não deveria ser um empecilho para que contríbuisse naquela área. De certa forma ele se mostrava hostil para com a instituição universitária porque julgava que sua estrutura rígida dificultava a interação entre disciplinas, essencial para o avanço do conhecimento. É interessante notar como um homem de interesse universalista, dedicado ao processo de compreensão mútua entre escolas de pensamento diversas, tenha se envolvido em uma disputa tão áspera e duradoura com outro grande gênio, como ocorreu com Newton sobre a autoria do cálculo.

A Polêmica Newton versus Leibniz

Durante as viagens que fez pela Europa Leibniz estabeleceu contato com diversos matemáticos importantes da época. Ele estudou matemática e física com Christian Huygens em Paris, em 1672 e esteve com Hooke e Boyle em Londres no ano de 1673. Na mesma ocasião ele adquiriu diversos livros sobre matemática, inclusive os trabalhos de Barrow, com quem manteve extensa correspondência. Retornando para Paris Leibniz realizou importantes contribuições na área do cálculo, julgando que seu trabalho fosse muito diferente do de Newton. Newton tratava as variáveis como funções do tempo enquanto Leibniz considerava suas variáveis \(x\) e \(y\) como valores assumidos sobre sequências de valores infinitamente próximos. Ele introduziu a noção de \(dx\) e \(dy\) como diferenças entre valores próximos dentro destas sequências. Leibniz sabia que podia calcular a inclinação da tangente como \(dy/dx\) mas não usou este fato como definição da reta tangente.

Para Newton a integração consistia de se encontrar fluentes para um dado fluxo e, desta forma, a complementariedade da diferenciação e da integração como operações inversas estava implícita. Leibniz usava a integração como uma soma, de forma muito similar àquela usada por Cavalieri e, mais recentemente, por Riemann. Ele também se sentia à vontade com o uso dos infinitesimais \(dx\) e \(dy,\) enquanto Newton usava a notação \(\dot x, \dot y\) que representavam velocidades finitas. Nem Leibniz nem Newton pensavam em termos de funções e sim em termos dos gráficos envolvidos. Para Newton o cálculo era formado por operações geométricas enquanto Leibniz fez maior progresso na direção da análise.

Leibniz tinha consciência de que a definição e adoção de uma boa notação era de fundamental importância e se dedicou com esforço a esta questão. Por outro lado seu rival, Newton, parecia escrever mais para si mesmo do que para um público geral e, como consequência, tendia a usar uma notação que variava a cada momento. A notação de Leibniz, \(d/dx\) enfatizava o aspecto de operador da derivação, o que se revelou muito importante para o progresso posterior da disciplina. Até o ano de 1675 Leibniz já tinha estabelecido a notação que hoje nos permite escrever coisas como
$$\int xdx = \frac{x^2}{2},$$
com notação usada nos dias de hoje. Seus resultados em cálculo integral foram publicados em 1684 e 1686 sob o nome de Calculus Summatorius. O nome moderno, cálculo integral, só apareceu como sugestão Jacob Bernoulli, em 1690.

Nesta época 1676 Newton escreveu uma carta para Leibniz, enviada por meio de Oldenburg. Nesta carta, que demorou para chegar ao destino, Newton apresentava uma lista de suas conclusões sem dar, no entanto, uma descrição de seus métodos. Leibniz respondeu imediatamente sem perceber que houvera demora tão grande no recebimento daquela carta. Por sua vez Newton acreditou que Leibniz tivera seis semanas para elaborar sua resposta, aperfeiçoando suas considerações sobre o cálculo com base em sua própria carta. Percebendo o descontentamento do colega Leibniz compreendeu que deveria publicar sem atraso uma descrição completa de seus próprios métodos. Uma segunda carta foi enviada a Leibniz em outubro de 1676 onde Newton, ainda que mantendo o tom cortês, sugeria que seus métodos e operações haviam sido plagiados. Leibniz respondeu dando mais detalhes sobre os fundamentos de seu cálculo diferencial e integral, incluindo a regra para a derivação de uma função composta.

Embora Newton reclamasse que Leibniz não havia resolvido nenhum novo problema é inegável que seus métodos e formalismo foram vitais para o desenvolvimento posterior do cálculo. Cabe lembrar que Leibniz nunca considerou a derivada como um limite, um conceito só desenvolvido mais tarde com o trabalho de d’Alembert.

Em 1684 Leibniz publicou em detalhes seu método sobre o cálculo diferencial em um jornal denominado Nova Methodus pro Maximis et Minimis, itemque Tangentibus… in Acta Eruditorum. Neste artigo ele usa a notação hoje familiar de \(df\) para a diferencial de uma função, as regras para a derivação de potências, produtos e quocientes de funções. No entanto nem todas as demonstrações estavam presentes. Em 1686 Leibniz publicou um novo artigo sobre o cálculo integral.

O livro de Newton, Principia, apareceu no ano seguinte. O método dos fluxos foi desenvolvido em 1671 mas permaneceu não publicado até 1736, com a tradução para o inglês de John Colson. Este atraso na publicação, em grande parte motivado pela relutância de Newton em aceitar a exposição e críticas dos colegas matemáticos foi o responsável pelo conflito e disputas com Leibniz.

Grande parte das atividades científicas de Leibniz em seus últimos anos de vida estava relacionada com esta disputa sobre a invenção do cálculo. Em 1711 um artigo na Transactions of the Royal Society of London o acusava de plágio. Este artigo, bem como os demais ataques, partiam de partidários de Newton e não dele próprio, diretamente. Em sua defesa Leibniz argumentou que não tivera contato com o cálculo dos fluxos até o conhecimento da obra de Wallis. Em resposta Keill afirmou que a carta enviada por Newton através de Oldenburg continha indicações claras de seu método. Em carta para a Royal Society Leibniz pediu uma retratação, o que motivou a formação de um comitê para julgar a questão. O comitê, formado pelo próprio Newton, julgou a questão sem dar a Leibniz o direito de defesa emitindo parecer favorável a Newton. O relatório final, escrito por Newton, atribuía a ele a autoria do cálculo. Leibniz publicou um panfleto anônimo, intitulado Charta Volans, onde narrava sua versão dos fatos e se utilizava, em sua defesa, de um erro de Newton sobre derivadas de segunda ordem e ordens superiores. Mais uma vez os partidários de Newton vieram a público em sua defesa mas Leibniz se recusou a levar adiante o debate. Ao receber correspondência de Newton, Leibniz respondeu com uma descrição detalhada de sua descoberta do cálculo diferencial.

Entre seus correspondentes Leibniz manteve com Samuel Clarke, um defensor de Newton, um debate sobre os conceitos newtonianos sobre espaço e tempo, ação à distância e atração gravitacional através do vácuo. Parte desta discussão afetou, mais tarde, o pensamento de Ernst Mach e, por sua vez, Albert Einstein, levando à construção da nova teoria mecânica e da atração gravitacional exposta pela Teoria da Relatividade. A defesa apaixonada da posição de Newton e a recusa em adotar a terminologia e notação de Leibniz fizeram com que os progressos do cálculo fossem retardados na Inglaterra, enquanto na Europa continental os seguidores de Leibniz promoviam um rápido avanço da ciência.

Desenvolvimentos Posteriores

George Berkeley

Nem Newton, nem Leibniz, nem seus seguidores imediatos foram capazes de estabelecer uma base rigorosa para o cálculo. Não estava claro como a soma de elementos muito pequenos, tais como \(f(x) dx\) deveria resultar em uma quantidade finita. Na mecânica, se \(\nabla x\) é a variação espacial ocorrida em um tempo \(\nabla t\), ambos infinitesimais, que sentido teria a velocidade instantânea, entendida como um quociente, \(v = \frac{\nabla x}{\nabla t}\)? A fundamentação rigorosa do cálculo teria ainda que aguardar por muitos anos. A ausência de um formalismo algébrico consistente e o apego aos métodos geométricos herdados dos gregos representou uma dificuldade para este avanço. Na visão de Leibniz a preocupação excessiva com o rigor ausente não deveria impedir o uso e os progressos da disciplina. Como sabemos hoje o conceito que faltava era exatamente o conceito de limite, só estabelecido rigorosamente no século XIX.

(6) O problema da braquistócrona consiste em encontrar a curva percorrida por uma partícula que se move sujeita a um campo gravitacional constante de modo que gaste, para isto, o menor tempo possível. Este problema impulsionou a criação do cálculo das variações.

Um grande esforço foi feito por diversos pensadores quando o bispo George Berkeley (1685-1753) divulgou em 1734 um panfleto intitulado The Analyst atacando a ausência de rigor que se verificava no cálculo da época. Novos progressos foram atingidos pelos seguidores de Newton e Leibniz, em parte na tentativa de responder a estes ataques. Entre eles estavam Jacob e Johann Bernoulli, discípulos de Leibniz. Nove membros da família Bernoulli se destacaram na matemática ou na física, sendo que os principais foram os irmãos Jakob (1654-1705) e Johann (1667-1748) e o filho deste, Daniel (1700-1782). A teoria das probabilidades, os princípios do cálculo e a integração das equações diferenciais foram algumas das contribuições dos Bernoulli.

Jakob (Jacques) Bernoulli estudou teologia mas desde cedo, apesar da oposição de seu pai, mostrou vocação para a matemática. Suas principais contribuições foram a descoberta, em conjunto com seu irmão Johann, de que a série harmônica é divergente, a solução do problema da braquistócrona(6), a demonstração do teorema do binômio para expoentes inteiros e positivos e a introdução dos polinômios e dos números de Bernoulli, de grande importância para demonstrações de diversos teoremas da álgebra e para o estabelecimento de fórmulas do cálculo. Ele também contribuiu para a geometria diferencial com seu estudo sobre geodésicas de uma superfície.

Johann (Jean) Bernoulli iniciou os estudos matemáticos com o irmão Jakob. Formou em medicina mas logo dedicou-se ao estudo do cálculo integral e diferencial. Estudou o movimento pendular e estabeleceu suas características e formulou conceitos matemáticos referentes à ótica. Durante um período que passou em Paris ele foi professor do marquês de L’Hospital (1661-1704) ensinando a ele a nova disciplina criada por Leibniz. Em seguida assinou um documento se comprometendo a enviar ao marquês suas descobertas matemáticas, em troca de um salário regular, para que ele as usasse como quisesse. Como resultado o marquês publicou como sua uma das mais importantes contribuições de Bernoulli, desenvolvida em 1694 e mais tarde conhecida como regra de L’ Hospital sobre indeterminações. A regra de Bernoulli afirma que, se \(f(x)\) e \(g(x)\) são diferenciáveis em \(x_0\) e satisfazem as condições \(f(x_0)=0\) e \(g(x0)=0\) então
$$ \lim_{x\to a} \frac{f(x)}{g(x)} = \lim_{x\to a} \frac{f'(x)}{g'(x)}$$
desde que exista este último limite. Embora não sendo o autor intelectual dos conceitos expostos L’ Hospital realizou um bom trabalho didático e de compilação de forma que seu livro, Analyse des infiniment petits, publicado em Paris, 1696, foi amplamente utilizado até o final do século XVIII.

O segundo filho de Johann, Daniel Bernoulli, estudou lógica, filosofia e medicina, assumindo a posição de professor de mecânica, física e medicina. Considerado por alguns historiadores como o fundador da física matemática ele formulou o princípio da conservação de áreas, que complementa o princípio da conservação de massa de Newton e dedicou-se a diversos campos do conhecimento científico, como a fisiologia, a astronomia, o magnetismo, as correntes oceânicas e as marés. Em sua obra mais importante ele analisa as propriedades dos fluidos, formula a teoria cinética dos gases e expõe o teorema de Bernoulli, segundo o qual a pressão de um fluido diminui quando sua velocidade aumenta.

Historicamente sempre houve a necessidade de se representar funções, pelo menos como uma aproximação, por meio de polinômios. Como vimos foi desta forma que Newton e outros realizaram as primeiras operações de derivação e integração. Além disto existe a necessidade prática de se calcular o valor de diversas funções para uso em aplicações. Tábuas de valores para as funções logaritmo e trigonométricas eram necessárias para o uso na astronomia, cartografia e navegação, entre outros. Uma forma simples para a obtenção de tais tábuas era a de interpolar valores, ou seja, conhecidos os valores de uma função em dois pontos próximos os valores intermediários podiam ser obtidos por interpolação linear, supondo que a função fosse linear entre estes valores. Matematicamente, se conhecemos \(f(a)\) e \(f(b)\) então\(f(x)\) pode ser aproximada pela reta
$$y(x) = f(a) + \frac{f(b)-f(a)}{b-a}(x-a),$$

pelo menos para pontos interiores ao intervalo \([a,b]\) e esta aproximação será tanto melhor se a e b estiverem próximos. Observe que se \(b\) é tomado arbitrariamente próximo de \(a\) então temos a equação da tangente à curva de f(x) no ponto \(x=a:\)
$$ y(x) = f(a) + \frac{df}{dx}|_{x=a}(x-a).$$

Tangente e secante

Logo se tornou claro que aproximações mais refinadas poderiam ser obtidas aproximando-se a função por polinômios de ordem superior. Em 1624 um matemático chamado Briggs já utilizava esta abordagem. Uma generalização foi obtida por Newton em 1676 e, de modo independente, por James Gregory em 1670. Estas expansões, além de permitir o cálculo de valores para funções com precisão arbitrária também servia na avaliação de integrais e cálculos de áreas, reduzindo a operação de integrar uma função genérica à integração de \(x^n\) através da fórmula de Fermat,
$$\int x^ndx = \frac{x^{n+1}}{n+1}.$$

No esforço de sistematizar e estabelecer critérios de rigor para o cálculo, grandes progressos forma conseguidos por matemáticos do século XVIII, quando surgiram as teorias das Equações Diferenciais, das Séries Infinitas, da Geometria Diferencial, Cálculo das Variações e tópicos de análise. Neste período viveram matemáticos importantes como Taylor, Euler, d’Alembert, Lagrange e Laplace.

Um resultado já obtido por Gregory e Leibniz, mas só publicado em 1715 por Brook Taylor (1685-1731) estabelece formalmente a expansão de funções diferenciáveis em séries de potências. Matemático inglês, Taylor escreveu o primeiro tratado sobre o cálculo das diferenças finitas, estudou tópicos diversos em matemática, sobre a trajetória da luz num meio homogêneo, a freqüência das vibrações e oscilação transversal de uma corda. A fórmula de Taylor é a seguinte: uma função analítica \(f\) pode ser aproximada em uma vizinhança do ponto \(x=a\) pelo polinômio de grau \(N\) como
$$f(x)=\sum_{n=0}^N \frac{1}{n!}f^n(a)(x-a),$$

onde definimos
$$ f^{(n)}(a) = \frac{d^n f}{dx^n}\Biggl\arrowvert _{x=a},\;\;f^{(0)}(a)=f(a),\;\;0!=1.$$

Por analogia com a teoria das funções de variáveis complexas dizemos que uma função é analítica quando possui derivadas de todas as ordens e estas derivadas são contínuas. Portanto, uma função é analítica se, e somente se, possui expansão de Taylor. Um caso particular desta expansão foi publicado em 1742 por Colin MacLaurin (1698-1746), onde se fazia \(a=0\). Taylor, como seus contemporâneos, não trabalhava com o conceito de limite. Ele simplesmente fazia os desenvolvimentos em termos de uma quantidade suposta infinitesimal, digamos \(\nabla h\), e ao final da operação tomava \(\nabla h=0\). Esta falta de rigor dos primeiros tempos do cálculo, em flagrante contraste com rigor atingido pelos geômetras gregos, alimentaram a oposição daqueles que se opunham ao cálculo.

Por muitos anos os matemáticos trabalharam com as expansões em séries de potência até uma ordem \(N\), como se as funções pudessem ser fielmente representadas por polinômios. Diferenciações e integrações eram obtidas operando-se no polinômio, termo a termo. Embora este procedimento estivesse correto algumas vezes também dava origem a resultados incorretos e até absurdos. O que estava faltando eram a noção de convergência de uma série e os testes para estabelecer esta convergência. A própria noção de limite não estava estabelecida com clareza.

Leonhard Euler

Um passo importante para a rigorização do cálculo foi obtido por Euler. Leonhard Euler (Suiça: 1707-1783) foi um matemático de interesses variados e que produziu uma extensa obra científica. Como estudante Euler mostrou precocidade, despertando a atenção dos principais matemáticos de sua época, como Jean Bernoulli e seus filhos. Ele produziu trabalhos sobre Mecânica, Astronomia, ótica, Cartografia, Acústica, entre outros tópicos da Física. Euler foi um dos primeiros cientistas a defender a teoria ondulatória da luz, em oposição à teoria corpuscular de Newton, amplamente adotada na época. Na matemática ele expôs os fundamentos de sua contribuição na obra Introductio in analysim infinitorum (Introdução à análise dos infinitos) publicada em 1748. Euler trabalhou sobre os fundamentos da geometria analítica e do cálculo, desenvolveu a teoria das funções trigonométrica e logaritmica e simplificou as operações relacionadas à análise matemática. Além disto trabalhou na teoria dos números e criou o Cálculo Variacional, o estabelecimento de pontos críticos de funcionais, ou funções que dependem de outras funções, hoje uma das ferramentas básicas da física, particularmente na mecânica clássica e quântica e na teoria das partículas e campos. Ele foi o fundador da Mecânica Analítica, um aperfeiçoamento formal da mecânica newtoniana com poder de cálculo bastante superior aos métodos usados por Newton e estabeleceu os fundamentos da Geometria Diferencial, que consiste no estudo de curvas e superfícies por meio dos métodos do cálculo, generalizado mais tarde por Riemann em sua geometria de curvas e hiper-superfícies de qualquer dimensão.

Euler escreveu inúmeros livros e artigos científicos, mesmo após ter perdido a visão aos sessenta anos. Ele foi o responsável pela adoção de diversos símbolos hoje consagrados na literatura da matemática, tais como a letra grega \(\Sigma\) para indicar uma soma e a letra \(e\) para designar a base dos logaritmos naturais ou neperianos, \(e^x\) para a função exponencial. A famosa fórmula de Euler, \(e^{i\theta} =cos \theta + i \mbox{sen} \theta\) foi obtida quando se buscava uma interpretação coerente para o logaritmo de números negativos. Esta expressão já era conhecida por Jean Bernoulli e outros mas só foi expressa claramente por Euler. Fazendo \(\theta=\pi\) na expressão acima temos que \(e^{i\pi}=-1\) e, portanto, \(ln(-1) = \pi i,\), um número imaginário puro.

Em meados do século XVIII uma grande renovação intelectual teve início na França. Juntamente com Voltaire, Rousseau e Diderot, Jean Le Rond d’Alembert (França: 1717-1783) empreendeu a edição da célebre Encyclopédie que tanta ressonância teve naquele século e assentou a base cultural do movimento que culminou na revolução francesa de 1789. Recém nascido, d’Alembert foi abandonado por pais de origem aristocrática nos degraus da igreja de St. Jean Baptiste Le Ronde, de onde tirou seu nome, tendo sido recolhido por pessoas humildes que o criaram. Mais tarde, já um matemático de renome, ele haveria de recusar a reaproximação da mãe biológica, dando preferência a ser conhecido como filho de seus humildes pais adotivos.

d’Alembert estudou Direito e Medicina mas abandonou as estas atividades para se dedicar exclusivamente à matemática. Em 1741 publicou sua obra Traité de dynamique onde estabelece que a lei de ação e reação postulada por Isaac Newton também se aplica aos corpos sólidos rígidos, estudo de profunda relevância no projeto e construção de estruturas construídas para suportar grandes cargas. Ele também fez contribuições para a mecânica de fluidos, astronomia e ótica. No cálculo ele se opunha ao uso que Euler fazia das diferenciais de uma função, supondo que são quantidades nulas embora qualitativamente diferentes de zero. Em seu artigo para a Encyclopédie sob o verbete diferencial ele escreveu que “a diferenciação de equações consiste simplesmente em achar os limites da razão de diferenças finitas de duas variáveis na equação”. Este ponto de vista afasta a noção da diferencial como grandezas infinitesimalmente pequenas. A formulação de limites de d’Alembert não foi exposta sob forma clara e não foi aceita por seus contemporâneos que continuaram a usar a linguagem de Leibniz e Euler. Esta situação durou até o século XIX.

DAlembert, Laplace, Lagrange e Monge

O matemático e físico Joseph Louis de Lagrange (Itália: 1736-1813) teve importância decisiva para o desenvolvimento da teoria dos números, do cálculo e da mecânica celeste. Ele estudou o movimento da Lua e publicou vários trabalhos contendo notas complementares à gravitação newtoniana, sobre a teoria dos números, probabilidade e equações diferenciais e análise de problemas algébricos, precursores da teoria de grupos, desenvolvida mais tarde por évariste Galois.

Lagrange escreveu bem menos que Euler mas manteve sempre em seus escritos grande rigor e cuidados, o que lhe valeu a fama de maior matemático de seu século. Em sua obra principal, Mécanique Analytique (1788) Lagrange propôs um formalismo aperfeiçoado para o estudo da mecânica analítica, o que estabeleceu esta disciplina em definitivo como um ramo da análise matemática. Em 1797 ele publicou Théorie des Fonctions Analytiques onde procurou as bases algébricas do cálculo, sem a necessidade da consideração de quantidades infinitesimais. Partindo do desenvolvimento em séries de potências para uma função, estabelecido por Taylor, ele apresentava suas derivadas em termos dos coeficientes da expansão. Sua obra representou a fundação do maior rigor que seria alcançado no século XIX.

O físico, matemático e astrônomo francês, Pierre Simon Laplace (França: 1749-1827) pesquisou eletromagnetismo, probabilidade e mecânica celeste. De origem modesta, ele se destacou quando estudante e foi recomendado por d’Alembert para o cargo de professor da Escola Militar de Paris, em 1769. Ele chegou a colaborar com Lavoisier no estudo dos processos químicos em biologia, mostrando que a respiração orgânica é uma forma de combustão produzida pela oxidação de substâncias orgânicas. Laplace realizou uma compilação das teorias astronômicas de Isaac Newton, Edmundo Halley e outros cientistas cujas obras encontravam-se dispersas e, em seguida, realizou cálculos cuidadosos sobre os efeitos da gravitação de cada planeta sobre os demais corpos do sistema solar, descobrindo que as órbitas ideais propostas por Newton apresentavam desvios. Em seus estudos associados à atração gravitacional Laplace estudou a equação diferencial
$$ \frac{\partial^2 \phi}{\partial x^2} + \frac{\partial^2 \phi}{\partial y^2} + \frac{\partial^2 \phi}{\partial z^2} =0,$$

que deveria ser satisfeita para potencial gravitacional \(\phi,\) no vácuo. A mesma equação pode ser escrita, em notação moderna, \(\nabla ^2 \phi =0\), onde \(\nabla\) é o operador vetorial \((\partial_x, \partial_y, \partial_z )\). No entanto esta equação apareceu pela primeira vez em um artigo de Euler sobre hidrodinâmica, em 1752.

Em Exposition du Système du Monde (1796) Laplace propôs a teoria da formação nebular para o sistema solar que leva seu nome. Seus trabalhos sobre a teoria da probabilidade tornaram-se amplamente conhecidas e respeitados. Laplace estudou a transformação de uma função em outra, hoje denominada transformada de Laplace, \(\mathcal L \left[f(t)\right]\) definida como a integral imprópria
$$ F(s) = \mathcal L \left[ f(t)\right] = \int_0 ^\infty e^{-st}f(t)dt, $$

mais tarde utilizadas pelo engenheiro elétrico Oliver Heaviside (1850-1925) para a construção de um método para a solução de equações diferenciais particularmente importante no estudo de sistemas elétricos e mecânicos envolvendo oscilações, amortecimentos e fenômenos correlatos.

O trabalho desenvolvido por mais de quarenta anos por Adrien Marie Legendre (França: 1752-1833) no setor das integrais elípticas forneceu instrumentos analíticos básicos para a física matemática. Ainda jovem Legendre foi nomeado professor de matemática da Escola Militar. Ele escreveu quatro dissertações sobre a atração dos esferóides. Na primeira, de 1783, estudou as funções que receberam seu nome e são soluções para a equação diferencial
$$\left(1-x^2 \right) y” – 2xy’ + l(l+1)y =0,$$

que surgem frequentemente em problemas que envolvem simetria esférica, tais como o potencial elétrico em torno de distribuições esféricas de cargas e a distribuição eletrônica no átomo de hidrogênio. As soluções podem ser obtidas pelo método de séries de potências fazendo \(y=\sum_0 ^\infty a_n x\). Para o caso de \(l\) inteiro não negativo a série infinita é truncada para um valor de \(n\) e as soluções são os polinômios de Legendre:
$$P_0(x) = a_0,\,P_1(x) = a_1 x,\, P_2(x) = a_0,\,\left(1-3x^2 \right) a_0,\, P_3(x) = \left(x-\frac{5}{3}x^3 \right) a_1,\,\ldots.$$

 

(7) Em 1896 foi mostrado que \(\pi(n) \to n\ln n\).

Legendre adquiriu notoriedade por obra éléments de géométrie (1794), escrita, nas palavras do autor, “para satisfazer o espírito” onde ele procurava manter um alto nível de rigor formal. Legendre desenvolveu o método dos mínimos quadrados e, em 1798, publicou o primeiro livro exclusivamente à teoria dos números onde contribuiu para assentar as bases de um dos mais famosos problemas da aritmética, o da distribuição dos números primos. Já era conhecido, desde Euclides, que os números primos são infinitos. Embora seja claro que a densidade dos primos diminua para inteiros crescentes muitos estudiosos procuraram a regra de descrição desta densidade \(\pi(n)\), que expressa o número de primos menores que \(n\). Legendre fez conjecturas aproximadas para a solução desde problema(7).

Os trabalhos de Legendre, apesar do impulso dado ao crescimento da matemática, foram superados rapidamente pelos esforços de Carl Friedrich Gauss, em aritmética, e Niels Abel e Karl Jacobi, nas funções elípticas. Ele não mostrava grande simpatia para com Gauss, mas recebeu com entusiasmo as contribuições de Abel e Jacobi. Numa demonstração de altruísmo Legendre divulgou estes trabalhos com prazer, embora elas tornassem obsoletos os esforços de toda sua vida.

Vimos que o estabelecimento das séries de potência para a representação de funções sempre representou um papel importante no estabelecimento do cálculo, tanto para a operação de derivação como para a integração. Mas um novo formalismo para a descrição de funções como séries infinitas estava ainda por ser encontrado por Jean Baptiste Joseph Fourier (França: 1768-1830).

Fourier era filho de um alfaiate e mostrou cedo ter grande talento para a matemática. Ele participou ativamente na revolução francesa de 1789. Em 1795 se tornou professor da recém-criada école Normale e, em seguida, da école Polytechnique. Aproveitando-se de suas viagens ao Egito, motivadas pelo trabalho em política, Fourier fez estudos sobre a civilização antiga daquele povo e deixou contribuições notáveis no campo da egiptologia.

Fourier estava interessado em aplicar o formalismo matemático na solução de problemas físicos. Em sua obra mais importante, Théorie analytique de la chaleur (1822), ele mostrou que a condução do calor em corpos sólidos pode ser expressa por meio de séries trigonométricas infinitas. As séries trigonométricas propostas por Fourier se baseiam na ortogonalidade das funções seno e cosseno:
$$\frac{1}{l} \int_{-l}^{l} \cos \frac{n \pi x}{l} \cos \frac{m \pi x}{l} = \delta_{mn};\;\; \frac{1}{l} \int_{-l}^{l}\mbox{sen} \frac{n\pi x}{l} \mbox{sen} \frac{m\pi x}{l} =\delta_{mn}
$$
$$\int_{-l}^{l} \cos \frac{n\pi x}{l} \mbox{sen} \frac{m\pi x}{l} = 0.$$
onde \(\delta_{mn}\) é o símbolo de Kronecker,
$$\delta_{mn}=\left\{ \begin{array}{ll} 1, \mbox{ se } m = n \\
0, \mbox{ se } m \ne n
\end{array} \right.$$

(8) Basta que \(f\) e \(f′\) sejam seccionalmente contínuas, ou seja, contínuas em subintervalos da região considerada.

É possível então escrever uma expansão em séries trigonométricas para uma função contínua com derivada contínua(8) e periódica com período \(2l\) da seguinte forma:
$$f(x) = \frac{a_0}{2}+\sum_{n=1}^\infty\left(a_n\cos\frac{n\pi x}{l} + b_n\mbox{sen}\frac{n\pi x}{l} \right),$$
onde os coeficientes \(a_n\) e \(b_n\) são dados por
$$a_n=\frac{1}{l}\int_{-l}^{l}f(x)\cos\frac{n\pi x}{l}dx,\,\,b_n=\frac{1}{l}\int_{-l}^{l}f(x)\mbox{sen}\frac{n\pi x}{l}dx,$$

Fourier

Em uma apresentação para a Academia de Ciências de Paris, em 1807, Fourier descreveu seu trabalho afirmando que qualquer função poderia ser representada por uma série desta forma. Lagrange, presente à reunião, ficou surpreso e negou em termos definitivos que tal coisa pudesse ser correta. Embora tenha exagerado na generalidade do método, o trabalho de Fourier motivou uma grande quantidade de pesquisas em andamento até os dias de hoje, sobre as condições impostas à função para que seja representável desta forma e os critérios de convergência. As séries de Fourier estão geralmente associadas ao tratamento das equações diferenciais parciais e se aplicam a um grande número de problemas físicos e matemáticos, inclusive no tratamento de sinais, na compactação de informações e na base do formalismo matemático da mecânica quântica. Uma generalização deste conceito resulta na transformada de Fourier, que pode ser obtida heuristicamente pela tomada do limite \(l \to \infty.\)

Um trabalho importante para o estabelecimento do rigor no cálculo foi realizado pelo tcheco Bernhard Bolzano (1781-1848), um sacerdote católico que se dedicou ao estudo da filosofia e da matemática. Bolzano era um ativista em favor das reformas que buscavam a diminuição das desigualdades sociais, da condenação do militarismo e da guerra e pela liberdade de pensamento. Na matemática ele definiu, em 1817, o conceito de continuidade de uma função nos moldes em que hoje o conhecemos e criou o critério de convergência hoje chamado de “critério de Cauchy”. Ele também demonstrou o teorema do valor intermediário e o teorema de Bolzano-Weierstrass. Um de seus objetivos era o de estabelecer uma base formal e analítica para os métodos do cálculo, eliminando das demonstrações a intuição geométrica. Seus escritos, às vezes considerados pouco claros e excessivamente voltados para os fundamentos, receberam pouca divulgação e só foram devidamente apreciados na década de 1870.

Mais um dos responsáveis pelo lançamento das bases rigorosas do cálculo foi Augustin Louis Cauchy que viveu na França de 1789 a 1857. Cauchy foi considerado um dos matemáticos mais importantes dos tempos modernos. Formado em engenharia, publicou grande quantidade de artigos matemáticos e solucionou um problema proposto por Lagrange que estabelece uma relação entre o número de lados, vértices e faces de um poliedro convexo. Em 1814 publicou um trabalho sobre integrais definidas, que serviria de base para o desenvolvimento da teoria das funções complexas e, no ano seguinte, estudou os grupos de permutação, impulsionando a moderna teoria dos grupos.

Cauchy realizou trabalhos sobre mecânica, propagação das ondas e hidrodinâmica. Em 1822 lançou as bases da teoria matemática da elasticidade. Suas principais contribuições para a matemática, sempre pautadas pelo rigor e clareza dos métodos empregados, estão expostas em três grandes tratados: Cours d’analyse de l’école Royale Polytechnique (1821), Le Calcul infinitésimal (1832) e Leçons sur les applications du calcul infinitésimal à la géométrie (1826-1828).

Quatro anos após o surgimento do trabalho de Bolzano, que Cauchy desconhecia, ele publicou seu Cours d’analyse onde aparecem as definições de limite, continuidade de funções e o chamado critério de convergência, já desenvolvido por Bolzano e que leva seu nome. Ele também fez contribuições importantes para a álgebra linear e teoria dos determinantes. O próprio conceito de determinante, que recebeu de Cauchy esta designação, já havia sido empregado por Gauss mas só foi definitivamente incorporado à matemática graças a Cauchy.

A primeira demonstração correta da convergência das séries de Fourier e as condições sobre as funções para que esta convergência ocorra foi obtida em 1829 por Peter Gustav Lejeune Dirichlet (1805-1859). A definição de função usualmente apresentada nos cursos de cálculo modernos é basicamente a mesma apresentada por Dirichlet em 1837. A seguinte ““função de Dirichlet” foi proposta por ele para mostrar a generalidade do conceito de função:
$$\phi(x)=\left\{ \begin{array}{ll} a, & \mbox{ se } x \mbox{ é racional }\\
b, & \mbox{ se } x \mbox{ é irracional }
\end{array}\right.$$

Riemann

Esta função impulsionou Riemann a realizar estudos mais aprofundados sobre a teoria da integração. Apesar de ser mais conhecido pelas suas contribuições em análise e equações diferenciais Dirichlet foi também um grande pesquisador da teoria dos números.

(9) Uma função é analítica em uma região \(R\) se ela é derivável em todos os pontos de \(R\).

George Friedrich Bernhard Riemann (Alemanha: 1826-1866) influenciou profundamente a geometria e a análise. Embora sendo um matemático de idéias profundas e inovadoras Riemann era uma pessoa tímida e não gostava de exposição. Como estudante em Göttingen e Berlim ele se interessou pela teoria dos números primos, as funções elípticas e a geometria, que relacionou com as teorias mais modernas da física de sua época. Em 1851 doutorou-se com uma tese sobre os fundamentos de uma teoria geral das funções, estabelecendo relações entre os números complexos e a geometria. Nesta tese aparece uma sistematização das condições, já conhecidas no tempo de Euler, que uma função de uma variável complexa \(f(z)=u(x, y)+iv(x, y)\) deve satisfazer para ser uma função analítica(9), as chamadas equações de Cauchy-Riemann:
$$ \frac{\partial u(x,y)}{\partial x} = \frac{\partial v(x,y)}{\partial y}, \;\;\;\;
\frac{\partial u(x,y)}{\partial y} = -\frac{\partial v(x,y)}{\partial x}.
$$
Em notação mais compacta podemos escrever \(u_x=v_y,\,\,u_y=−v_x\).

Após um levantamento feito sobre o desenvolvimento histórico das séries trigonométricas, de d’Alembert a Dirichlet, Riemann percebeu que seria necessário estabelecer uma interpretação inequívoca da integração de uma função, desenvolvendo a integral de Riemann, e aplicando-a ao estudo das séries trigonométricas. A integral de Riemann pode ser definida da seguinte forma: se \(f\) é uma função real limitada, definida no intervalo \([a, b]\), construímos partições deste intervalo, \(a=\xi_0 \lt \xi_1 \lt \ldots \lt \xi_n = b\). Para cada partição definimos as somas
$$ S=\sum+{i=1}^n\left(\xi_i – \xi_{i-1} \right) M_i;\,\, s = \sum+{i=1}^n\left(\xi_i – \xi_{i-1} \right) m_i)$$

onde \(M_i\) e \(m_i\) são, respectivamente, o maior e o menor valor assumidos por \(f\) no subintervalo \([\epsilon_{i-1}, \epsilon_{i}]\). A integral superior \(\) e a integral inferior de Riemann são definidas assim:
$$ \overline{\int}_a ^b f(x)dx = \mbox{ inf } S, \;\; \underline{\int}_a ^b f(x)dx = \mbox{sup } s,$$
onde inf e sup são respectivamente o ínfimo e o supremo, consideradas todas as possíveis partições do intervalo. Se os dois valores são iguais então se diz que a função é integrável à Riemann e sua integral é denotada simplesmente por \(\int_a ^b f(x)dx\).

Figura 4: Integral de Riemann

Em 1854 o matemático, ao preparar uma dissertação para ingressar como professor assistente em Göttingen, Riemann abandonou os postulados da geometria euclidiana e formulou uma geometria mais geral, que englobava as geometrias de Nikolai Lobatchevski e János Bolyai, que ele desconhecia. Sua conferência, intitulada Sobre as hipóteses que estão nos fundamentos da geometria, se tornou célebre pela profundidade e generalidade dos conceitos apresentados. Nela ele não apresentava nenhum exemplo específico de seus conceitos e propunha o estudo de uma geometria como o estudo de variedades com qualquer número de dimensões em qualquer tipo de espaço, não necessariamente formado por conjuntos de pontos ou retas. A distância entre dois pontos infinitesimalmente próximos, na geometria euclidiana é dada por
$$ds^2 = dx^2 + dy^2 + dz^2,$$
o que é apenas uma dupla aplicação do teorema de Pitágoras. Riemann generalizou este conceito para tratar espaços onde estas distâncias são dadas por
$$
ds^2 = \left[dx\;\;dy\;\;dz \right]
\left[ \begin{array}{lll} g_{11} & g_{12} & g_{13} \\
g_{21} & g_{21} & g_{23} \\
g_{31} & g_{32} & g_{33} \\
\end{array} \right]
\left[ \begin{array}{l} dx \\ dy \\ dz \end{array} \right]
$$
no caso de três dimensões. Generalizando para um espaço de \(n\) dimensões, e usando uma notação mais compacta
$$ ds^2 = \sum_{i=1}^n \sum_{j=1}^n g_{ij}dx_i dx_j$$

onde denotamos \(x=x_1\), \(y=x_2,\), \(z=x_3,\) etc. A matriz \(G= \left\{ g_{ij}\right\}\) é denominada a métrica do espaço. Observamos que a geometria euclidiana, em \(\Bbb R^3\), é um caso particular onde
$$\left\{ g_{ij}\right\} = \left\{ \delta_{ij}\right\}=\left\{
\begin{array}{lll}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1 \\
\end{array}
\right\}
$$
é a métrica de Euclides. Este formalismo foi utilizado por Albert Einstein em sua Teoria da Relatividade Geral.

História dos Números Complexos

As equações do segundo grau apareceram na Matemática aproximadamente 1700 anos antes de Cristo, registradas nas tabuletas de argila da Suméria. Em alguns casos elas levavam a raízes de números negativos que, em geral, eram descartadas. O primeiro exemplo de raiz de número negativo foi publicado, aproximadamente em 75 d.C. por Heron, em um cálculo sobre o desenho de uma pirâmide em que surge a necessidade de avaliar a raiz \(\sqrt{84-100}\). Heron, no entanto, simplesmente substituiu este número por \(\sqrt{100-84}\).

Capa de Aritmetica Diofanto, edição 1621

Aproximadamente no ano 275 d.C. Diofanto de Alexandria, resolvendo um problema geométrico, chegou à equação
$$24x^2 -172x+366=0$$
cujas raízes são \(x=(±43\sqrt{-167})/12\). Ele continuou sem dar maiores explicações sobre o significado da raiz de um número negativo. Por volta de 850 d.C. o matemático indiano Mahavira afirmou que “… como na natureza das coisas um negativo não é um quadrado, ele não tem, portanto raiz quadrada”. Bhaskara (1114 – 1185 aproximadamente) afirmou: “O quadrado de um afirmativo é um afirmativo; e a raiz quadrada de um afirmativo é dupla: positiva e negativa. Não há raiz quadrada de um negativo pois ele não é um quadrado.”

O matemático Luca Paccioli (1445 – 1514) publicou em 1494 que a equação \(x^2+c=bx\) é solúvel se \(b^2\ge 4c\) e o francês Nicola Chuquet (1445 – 1500) faz observações semelhantes sobre “soluções impossíveis” em uma publicação de 1484.

Gerônimo Cardano (1501 – 1576) considerava que o surgimento de radicais negativos na resolução de um problema apenas indicava que o mesmo não tinha solução, mas apesar disso resolveu um problema que consiste em dividir um segmento de comprimento 10 em duas partes tal que o produto delas seja 40, a partir da equação \(x(10-x)=40\) ou \(x^2-10x+40=0\), cujas soluções são \(x=5±\sqrt{-15}\). Cardano sustentava que esta equação não tem solução, mas observou que a soma das duas raízes é 10 e seu produto é 40, desde que se aceite que \((\sqrt{-15})^2=15\).

Embora a solução de equações do segundo grau já demandem a existência dos complexos, o reconhecimento da necessidade destes só surgiu na resolução da equações do terceiro grau, dos seguintes tipos:
$$x^3 + a x=b;\;\; x^3=ax+b \mbox { e } x^3+b=ax.$$

Em 1545 Cardano publicou uma fórmula para resolver equações do terceiro grau, que ficou conhecida por “Fórmula de Cardano”. Sabemos, no entanto, que ele recebeu de Tartaglia (1500 – 1557 aproximadamente) a sugestão para esta fórmula. Raphael Bombelli (1526 – 1573) um admirador de Cardano, decidiu escrever um livro sobre os mesmos assuntos procurando explorar o assunto com maior clareza, e o publicou em 1572. Neste livro, enquanto resolvia a equação \(x^3=15x+4\) pela fórmula de Cardano encontrou a raiz
$$x=\sqrt[3]{2 + \sqrt{-121} } + \sqrt[3]{2 – \sqrt{-121} },$$

solução desprezada por Cardano como sendo “irredutível”. Bombelli, no entanto, propôs o que ele mesmo chamou de “idéia louca”, a sugestão de que \(\sqrt{-1}\) pudesse ser usado matematicamente desde que observadas algumas regras (aquelas que hoje chamamos de álgebra dos complexos). Neste caso o número \(a+b \sqrt{-1}\) é raiz de \(2 + \sqrt{-121}\) se \(\left( a+b\sqrt{-1}\right)^3=2+\sqrt{-121}\) ou, após manipulação algébrica, \(a=2\) e \(b=1\). Desta forma a raíz citada acima pode ser escrita como
$$x= \left( 2+\sqrt{-1}\right) + \left( 2-\sqrt{-1}\right) =4,$$
uma solução real que pode ser verificada diretamente na equação cúbica a ser resolvida.

Uma das dificuldades que Bombelli se deparava era a de não possuir uma notação adequada para seus cálculos. Ele usava uma notação sincopada, uma forma resumida da descrição literal que era feita anteriormente. Por exemplo, ele escrevia
$$x=\sqrt[3]{2 + \sqrt{-121} } \;\; \mbox{ como } \;\; R_c \lfloor \lfloor 2p R_q \lfloor \lfloor 0 – 121 \rfloor\rfloor \,\rfloor\rfloor.$$

Observe que nesta época nem mesmo o entendimento dos números negativos estava totalmente consolidado, sendo que \(-121\) era escrito como \(0-121\). Mesmo assim ele pode mostrar o papel importante que os números conjugados complexos viriam a desempenhar no futuro. Efetivamente o símbolo \(\sqrt{-1}\) foi usado pela primeira vez por Albert Girard em 1629, quando enunciou claramente as relações entre raízes e coeficientes de uma equação.

O uso de \(i\) como unidade imaginária, \(i=\sqrt{-1}\), foi adotado por Euler em 1777, mas só publicado em 1794 em seu Institutionum calculi integralis. Ele observou na época que \(ii=-1\) o que leva à \(1/i=-i\). O símbolo se tornou amplamente aceito após seu uso por Gauss em 1801. Embora os termos real e imaginário já tivessem sido usados René Descartes em 1637, a expressão número complexo só foi introduzida por Gauss em 1832.

A partir do trabalho de Bombelli os números complexos passaram a ser usados, mesmo que se duvidasse de sua existência. A primeira tentativa para atribuir um significado concreto aos números complexos por meio de uma “interpretação geométrica” é devida a John Wallis (1616 – 1703) em um trabalho que discutia a impossibilidade da existência de quantidades imaginárias e comparando este tema com questão à existência de quantidades negativas.

Em 1702 Jean Bernoulli afirmou que um número e seu oposto tem o mesmo logaritmo. Esse fato intrigou os matemáticos do início do século XVIII, que não sabiam como atribuir um valor ao logaritmo de um número negativo. Coube a Euler, em 1747, explicar a questão em uma carta dirigida a d’Alembert.

Em 1707 Moivre publicou a solução da equação de grau ímpar, por um método análogo ao de Cardano. A fórmula de Moivre,
$$\left( \cos \theta +i\mbox{sen} \theta \right)^n = \cos (n \theta) +i\mbox{sen}(n\theta)$$
foi publicada em 1722 para alguns casos particulares do argumento [/latex]\theta[/latex]. Em1748 Euler, além de demonstrar a validade da fórmula para o caso geral, estendeu sua validade para todo expoente real, estabelecendo definitivamente a existência de raízes no campo complexo.

A formalização completa dos números complexos como pares ordenados de números reais foi desenvolvida em 1833 por Hamilton (1805 – 1865) e em 1847 por Cauchy (1789 – 1857).

Equações Diferenciais

Equações diferenciais são um ramo importante do cálculo e da análise matemática e representam, provavelmente, a parte da matemática que maior número de aplicações encontra na física e na engenharia. Sua história tem origem no início do cálculo, desenvolvido por Newton e Leibniz no século XVII. Equações que envolvem as derivadas de uma função desconhecida logo apareceram no cenário do cálculo, mas, com igual rapidez se constatou que elas não são sempre fáceis de serem resolvidas. As mais simples são aquelas que podem ser diretamente integradas, por meio do uso do método de separação de variáveis, desenvolvido por Jakob Bernoulli e generalizado por Leibniz.

No século XVIII muitas equações diferenciais começaram a surgir no contexto da física, astronomia e outras aplicações. A equação de Newton para a gravitação universal foi usada por Jakob Bernoulli para descrever a órbita dos planetas em torno do Sol. Já nesta época ele podia usar as coordenadas polares e conhecia a catenária como solução de algumas equações. Halley usou os mesmos princípios para estudar o movimento do cometa que hoje tem o seu nome. Johann Bernoulli, irmão de Jakob, foi um dos primeiros a usar os conceitos do cálculo para modelar matematicamente fenômenos físicos e usar equações diferenciais para encontrar suas soluções. Ricatti (1676 – 1754) levou a sério o estudo de uma equação particular que levou o seu nome e, mais tarde, foi também estudada pelos irmãos Bernoulli. Taylor foi o primeiro a usar o desenvolvimento de funções em séries de potência para encontrar soluções. Não havia, no entanto, uma teoria global ou unificada sobre esta técnica.

Adrien Marie Legendre

Leonhard Euler, o primeiro matemático a compreender profundamente o significado das funções exponencial, logaritmica e trigonométricas, desenvolveu procedimentos gerais para a solução de equações diferenciais. Além de usar as funções elementares ele desenvolveu novas funções, definidas através de suas séries de potências como soluções de equações dadas. Sua técnica dos coeficientes indeterminados foi uma das etapas deste desenvolvimento. Em 1739 Euler desenvolveu o método da variação dos parâmetros e, mais tarde, propôs técnicas numéricas que fornecem “soluções aproximadas” para quase todo o tipo de equação.

Posteriormente muitos outros estudiosos de dedicaram ao assunto, refinando e ampliando as técnicas de Euler. A trabalho de d’Alembert na física matemática permitiu que ele encontrasse soluções para algumas equações diferenciais parciais simples. Lagrange seguiu de perto os trabalhos de Euler e aperfeiçoou os estudos aplicados à mecânica, em particular no problema de três corpos e no estudo da energia potencial. Em1788 ele introduziu as equações gerais do movimento para sistemas dinâmicos, o que hoje é conhecido como as equações de Lagrange, onde fazia uso do chamado cálculo variacional. O trabalho de Laplace na estabilidade do sistema solar produziu novos avanços, incluindo para o uso de técnicas numéricas. Em 1799 ele apresentou o conceito do Laplaciano de uma função. Já o matemático Legendre trabalhou com equações diferenciais, primeiramente motivado pelo estudo do movimento de projéteis, examinando pela primeira vez a influência de fatores como a resistência do ar e velocidades iniciais. Muitos dos desenvolvimentos seguintes se referem às equações diferenciais parciais. Parte importante deste desenvolvimento foi obtida por Fourier em sua busca por soluções do problema de difusão do calor. Ele desenvolveu uma representação de funções sob a forma de séries infinitas de funções trigonométricas, úteis para o tratamento de equações parciais e diversas outras aplicações.

Até o início do século XIX o estudo das equações diferenciais, e do cálculo como um todo, padeciam de uma deficiência crônica no que se refere à fundamentação teórica de seus princípios. Esta fundamentação começou então a ser construída, iniciando pelo entendimento da teoria e conceitos das funções de variáveis complexas. Gauss e Cauchy foram os principais responsáveis por estes avanços. Gauss usou equações diferenciais para aprimorar as teorias de órbitas e da gravitação planetárias e estabeleceu a teoria do potencial como parte importante da matemática. Ele mostrou que as funções de variáveis complexas eram a chave para compreender muitos dos resultados exigidos pelas equações diferenciais. Cauchy usou equações diferenciais para modelar a propagação das ondas na superfície de um líquido. Ele foi o primeiro a definir de forma satisfatória a noção de convergência de uma série infinita, dando início à análise rigorosa do cálculo e das equações diferenciais. Cauchy também desenvolveu uma teoria sistemática para os números complexos e a usou a transformada de Fourier para encontrar soluções algébricas para as equações diferenciais. A solução de equações diferenciais nas proximidades de um ponto singular foi elaborada por Frobenius.

Muitas outras contribuições têm sido acumuladas ao longo da história mais recente. Poisson utilizou as técnicas das equações diferenciais a aplicações na física e em sistemas mecânicos, incluindo a elasticidade e vibrações. Green aperfeiçoou os fundamentos da matemática utilizada em aplicações da gravitação, da eletricidade e do magnetismo. Baseados nestes fundamentos Thomson, Stokes, Rayleigh e Maxwell, construiram a teoria moderna do eletromagnetismo. Bessel utilizou a teoria das equações para o estudo da astronomia, buscando analisar perturbações dos planetas sobre as suas órbitas. Joseph Liouville foi o primeiro a resolver problemas de valor de contorno usando equações integrais, um método mais tarde aperfeiçoado Fredholm e Hilbert.

Em meados do século XIX novas ferramentas se tornaram necessárias para a solução de sistemas de equações diferenciais. Jacobi desenvolveu a teoria dos determinantes e transformações para a solução de integrais múltipla e equações diferenciais. O conceito de jacobiano de uma transformação foi elaborado em 1841. Cayley também contribuiu para teoria das matrizes e determinantes publicando diversos artigos sobre matemática teórica, dinâmica e astronomia. Gibbs estudou a termodinâmica, eletromagnetismo e mecânica, sendo considerado a pai da análise vetorial.

Os avanços durante o final do século XIX adquiriram uma natureza cada vez mais teórica. Em 1876 Lipschitz obteve a prova dos teoremas de existência para equações de primeira ordem. Uma contribuição importante para o estudo das equações diferenciais, apesar de não imediatamente reconhecida pela comunidade dos matemáticos devido a sua falta de rigor, foi feita por Oliver Heaviside. Entre 1880 e 1887 ele desenvolveu o cálculo operacional e o uso da transformada de Laplace para reduzir equações diferenciais a equações algébricas de solução muito mais simples. Como vantagem adicional seu formalismo permite o tratamento de sistemas com entradas descontínuas e é extensamente usado na engenharia, especialmente na eletrônica e no tratamento de sinais.

No século XX os maiores impulsos vieram do desenvolvimento de métodos numéricos mais eficientes e da consideração de equações e sistemas de equações diferenciais não lineares. Carl Runge desenvolveu um método para resolver equações associadas à mecânica quântica, atualmente conhecido como método de Runge-Kutta. O outro tema permanece em aberto e recebendo contribuições importantes até o presente. Muitos fenônenos naturais são descritos por equações não lineares. Uma das características destes sistemas consiste na dependência muito sensível das condições iniciais, o que gera comportamentos de difícil previsibilidade que têm sido denominados de caos. Um exemplo importante de sistema não linear é o sistema de equações que descreve o movimento de muitos corpos, por exemplo na descrição do movimento planetário no sistema solar. Outros sistemas não lineares representam o crescimento de espécies em competição, o fluxo turbulento de fluidos, a descrição das condições meteorológicas, entre outros. Henry Poincaré (1854 – 1912), matemático, físico e filósofo da ciência foi um dos precursores deste assunto, sendo o primeiro a descobrir o comportamento caótico das soluções para sistemas de três corpos. Liapunov, Lorenz e muitos outros matemáticos trabalharam nesta área que continua em franca expansão e é de se esperar que o progresso nesta área traga grandes inovações na descrição de diversas áreas do conhecimento.

História dos Símbolos

Já em 1489 os sinais \( + \mbox{ e } –\) aparecem em uma obra sobre aritmética comercial de João Widman d’Eger, publicada em Leipzig, Alemanha. Eles não se referiam, no entanto, às representações de soma e subtração, ou à números positivos ou negativos, mas a excessos e déficit em problemas sobre operações comerciais. Os símbolos para positivos e negativos só se difundiram na Inglaterra com o uso feito por Robert Recorde em 1557. Os mesmos sinais já eram usados anteriormente, como exemplifica o pintura destes sinais em barris para indicar se estavam ou não cheios. Os gregos antigos, como Diofanto, por exemplo, indicavam a soma por justaposição das parcelas, assim como ainda é feito no caso de frações, \(1^{1/2}\), por exemplo. Os algebristas italianos usavam a palavra latina plus, ou sua letra \(p\) inicial, para indicar a operação de soma.

O sinal \(\times\), indicador de um produto, é relativamente moderno. Oughtred foi o primeiro a usá-lo em seu livro Clavis Matematicae, publicado em 1631. No mesmo ano, Harriot usou um ponto entre os fatores. Em 1637 Descartes usou a pura justaposição dos termos para indicar seu produto. Nos textos mais antigos de Leibniz encontra-se o sinal \(\cap\) para indicar multiplicação e \(\cup\) para a divisão. Mais tarde ele introduziu o ponto como um símbolo para a multiplicação e dois pontos (\(:\)) para a divisão. O sinal \(\div\), segundo Rouse Ball, resultou de uma combinação de dois sinais existentes “-” e “:”. As formas \(a/b\) ou \(\frac{a}{b}\) são atribuídas aos árabes.

Na Idade Média a igualdade entre dois termos é indicada literalmente por aequalis, do latim, ou através da abreviatura est. Xulander, matemático alemão do século XVI indicava a igualdade por dois pequenos traços paralelos verticais, ||,

“bicauſe noe .2. thynges, can be moare equalle”.
Em seu primeiro livro, publicado em 1540, Record colocava o símbolo \(\psi\) entre duas expressões iguais. Mais tarde, em 1557, ele foi o primeiro a empregar os dois pequenos traços paralelos, o sinal \(=\) para indicar a igualdade. Os sinais \(\gt\) (maior que) e \(\lt\) (menor que) são devidos a Thomaz Harriot, que muito contribuiu com seus trabalhos para o desenvolvimento da análise algébrica.

O símbolo \(\infty\) para o infinito foi introduzido por John Wallis (1616-1703) em seu livro De sectionibus conicis (Sobre as seções cônicas, 1655 ). Wallis era um estudioso clássico com grande erudição e é possível que tenha se inspirado no sinal romano para o número 1000, escrito CD ou M. Também se cogita que ele tenha tido esta idéia a partir da última letra do alfabeto grego, o ômega grego minúsculo, \(\omega\), como uma metáfora para o limite superior, o fim.

Os símbolos para a operação de derivação, \(dx,\, dy\) e \(dx/dy\) foram propostos por Leibniz em um manuscrito de novembro de 1675. Newton usava a notação de fluxos \(\dot x, \dot y, \dot x /\dot y\). Esta notação é ainda usada amplamente em textos de mecânica quando a trajetória de uma partícula aparece sob forma paramétrica. Por exemplo, se descrevemos a trajetória de uma partícula por meio de sua posição vetorial \(\vec{r}(t)= \left(x(t), y(t), z(t)\right)\) então sua velocidade será escrita como \(\vec{v}(t)= \left(\dot x(t), \dot y(t), \dot z(t)\right)\).

Os símbolos \(f'(x)\) e \(f”(x)\) para as derivadas de primeira e segunda ordem respectivamente foram usados primeiro por Lagrange. Em Théorie des Fonctions Analytiques, 1797, se lê simplesmente \(f’x\) e \(f”x\), símbolos revisados mais tarde para incluir os parênteses que envolvem o argumento da função. Em 1770 Lagrange empregou \(\phi’=d\phi/dx\), omitindo por completo o argumento quando ele estava claro pelo contexto e, em 1772, \(u’=du/dx\) e \(du=u’dx\). O símbolo \(D_x y\) foi usado por Louis François Antoine Arbogast (1759-1803) em De Calcul des dérivations et ses usages dans la théorie des suites et dans le calcul différentiel.

Um delta grego maiúsculo, \(\Delta\), para indicar uma quantidade pequena ou a diferença entre funções foi usado em 1706 por Johann Bernoulli. O símbolo \(\partial\), “d curvo ”, apareceu em 1770 por sugestão de Antoine Nicolas Caritat (1743-1794) em um livro sobre equações diferenciais parciais para representar diferenciais parciais \(\partial f\), em oposição às diferencias totais \(df\). A forma \(\frac{\partial u}{\partial x}\) só foi empregada em 1786 por Legendre em um texto sobre máximos e mínimos associados ao cálculo das variações. Legendre abandonou o uso deste símbolo, só recuperado mais tarde por Jacobi em 1841. O símbolo \(\partial\) corresponde à letra dey cursiva no alfabeto Cirílico.

Para representar a integração Leibniz escrevia, no início de seu desenvolvimento, a palavra latina omnia (tudo) em frente à quantidade a ser integrada. Depois passou a escrever \(dx\) após a integração e, em carta de 1675 para Oldenburg, secretário da Royal Society, ele sugeriu o uso de \(\int\), uma degeneração de um S longo significando summa (soma). Em Quadratura curvarum, 1704, Newton usou uma pequena barra vertical \(\overline x\) para representar \(\int x dx\). Duas barras verticais paralelas, \(\overline {\overline x}\) indicava a integração dupla. Em outras ocasiões ele escrevia o termo a ser integrado dentro de um retângulo. As convenções de Newton, como se pode imaginar, davam margem a erros de interpretação e nunca se tornaram populares, nem mesmo entre seus seguidores diretos na Inglaterra.

Os limites de integração eram inicialmente indicados por palavras, não existindo um simbolismo para os designar. Euler foi o primeiro a sugerir o uso de uma notação específica, escrevendo os limites entre colchetes e escrevendo as palavras latinas ab e ad. Fourier deu a forma atual, escrevendo \(\int_a ^b f(x)dx\) para representar a integral definida, com \(x\) variando de \(a\) até \(b\). Este símbolo apareceu em um artigo da Memórias da Academia Francesa, 1819-20, reimpresso em Théorie analytique de la chaleur, 1822. O símbolo \(\oint\) para representar a integração sobre um caminho fechado parece ter sido usado pela primeira vez em 1917 por Arnold Sommerfeld (1868-1951) no periódico Annalen der Physik.

A notação de limites foi apresentada em 1786 por Simon Antoine Jean L’Huilier (1750-1840). Em seu Exposition élémentaire des principles des calculs superieurs ele escreveu: “… para resumir e facilitar o cálculo por meio de uma notação mais cômoda é conveniente escrever
$$\lim . \frac{\nabla P}{\nabla x}$$
o limite das variações simultâneas de \(P\) e de \(x\) em lugar de
$$\lim . \frac{dP}{dx},$$

de forma que as duas expressões significavam a mesma coisa. Observe que L’Huilier escrevia \(\lim\)., usando um ponto após o limite. Karl Weierstrass (1815-1897) adotou esta notação, abandonando o ponto.

Cauchy usou a letra grega epsilon, \(\epsilon\) ou \(\varepsilon\) em 1821 em Cours d’analyse, embora também usasse às vezes a letra delta, \(\delta\). Alguns autores sugerem que delta significa “ différence ” (diferença) enquanto epsilon significa ” erreur ” (erro). A primeira prova de Cauchy usando epsilons e deltas é basicamente o teorema do valor intermediário para as derivadas. Na demonstração ele traduz sua definição de que a derivada é um limite do quociente das diferenças, quando este limite existe, em linguagem algébrica usando epsilons e deltas. No entanto ele não estabelece uma relação entre \(\epsilon\) e \(\delta\), não fazendo portanto distinção entre convergência uniforme ou pontual.

O operador diferencial \(\nabla\) (nabla ou del) foi introduzido por William Rowan Hamilton (1805-1865). Inicialmente Hamilton usou este símbolo para representar uma função arbitrária, depois como o operador de permutações. Em 1846 Hamilton usou nabla, desenhado horizontalmente, como o operador diferencial vetorial. Maxwell e Riemann usavam a abreviatura grad para representar o gradiente. William Clifford (1845-1879) incorporou o termo divergência que denotava por \(\mbox{div }u\) ou \(\mbox{dv }u\). O símbolo \(\nabla ^2\) para representar o operador laplaciano foi proposto por Robert Murphy em 1883.

Devemos observar, como conclusão, que a notação usada para descrever um conceito em matemática é completamente arbitrária, não passando de convenções que podem, em princípio, ser totalmente alteradas. No entanto, temos que aprender com Leibniz que o estabelecimento de uma notação compacta, simples e de fácil leitura e manipulação é essencial para o desenvolvimento e uso de uma teoria. Além disto a padronização é essencial para que os conceitos sejam facilmente transmitidos e o ensino da disciplina seja simplificado. Com frequência, na história da matemática, uma nova teoria ou a demonstração de uma conjectura é proposta de forma obscura e de difícil leitura, sendo acessível apenas a um círculo restrito de especialistas na área. Mais tarde, dependendo da generalidade e aplicabilidade da inovação ela passa por uma série de alterações, encontrando formas mais didáticas e claras de exposição e reunindo argumentações de mais fácil acesso para a comunidade mais geral. Eventualmente, em geral após a depuração e aprimoramento teórico, a novidade surge nos livros textos e é incorporada nos currículos de ensino.

Bibliografia

  • Boyer, Carl; História da Matemática, Edgard Blucher, São Paulo, 1996.
  • Boyce, W., Di Prima, R.: Equações Diferenciais Elementares e Problemas de Valores de Contorno, Guanabara Koogan, Rio de Janeiro 1992.
  • Courant, R,; John, F.: Introduction to Calculus and Analysis, Willey, New York, 1965.
  • Eli Maor: e, A História de um Número, Record, Rio de Janeiro, 2003.
  • Eves, Howard: Introdução à História da Matemática, Editora Unicamp, Campinas, 1990.
  • ávila, Geraldo: Cálculo, Funções de uma Variável (vol. 2) LTC, Rio de Janeiro, 1989.
  • Russel, Bertrand: História do Pensamento Ocidental, Ediouro, Rio de Janeiro, 2001.
  • Struik, Dirk: Uma breve História da matemática, Gradiva, Lisboa, 1996.
  • White, Michael: Isaac Newton, O último feiticeiro, Record, Rio de Janeiro, 2000.
  • Encyclopaedia Britannica do Brasil Publicações.
  • O’Connor, J.; Robertson, E. :University of St Andrews, Scotland: http://www-history.mcs.st-andrews.ac.uk/history/;

Raízes da Equação do Segundo Grau

Equações do Segundo Grau

Como demonstrar a fórmula das raízes de uma equação do segundo grau?

Queremos encontrar a solução da equação
$$ax^{2}+bx+c=0$$

onde \(a,b,c,\) são números reais quaisquer, desde que \(a\) não nulo. Observe que se \(a=0\) ficamos com uma equação do primeiro grau, muito mais fácil de resolver. Sendo \(a\neq0\) podemos dividir a equação por \(a\) ficando com

$$x^{2}+\frac{b}{a}x+\frac{c}{a}=0.$$

A operação seguinte é chamada de completar quadrados e é muito útil em muitos contextos. Note que o produto notável
$$\left( x + \frac{b}{2a} \right)^{2} = x^{2}+\frac{b}{a}x+\frac{b}{4a},$$

O que nos permite reescrever a expressão acima como:
$$\left(x+\frac{b}{2a}\right)^{2}-\frac{b^2}{4a^2}+\frac{c}{a}=0,$$

ou ainda
$$\left(x+\frac{b}{2a}\right)^{2}=\frac{b^2}{4a^2}-\frac{c}{a}=\frac{b^2-4ac}{4a^{2}}.$$

Uma conveção útil consiste em denotar \(\Delta=b^{2}-4ac\). \(\Delta\) é a letra grega delta, que aqui define o que chamamos de discriminante da equação, por um motivo que já veremos. Temos agora
$$\left(x+\frac{b}{2a}\right)^{2}=\frac{\Delta}{4a^{2}}.$$

Extraindo as raízes de ambos os lados temos
$$x+\frac{b}{2a}=\pm\sqrt{\frac{\Delta}{4a^{2}}}=\pm\frac{\sqrt{\Delta}}{2a},$$

sendo que esta é a solução que preocuramos,
$$x=-\frac{b}{2a}\pm\frac{\sqrt{\Delta}}{2a}=\frac{-b\pm\sqrt{\Delta}}{2a}=\frac{-b\pm\sqrt{b^2-4ac}}{2a}.$$

No Brasil esta tem sido chamada, incorretamente, de fórmula de Bhaskara. Bhaskara foi um grande matemático e algebrista hindu que escreveu sobre tópicos variados. Existem textos que atribuem a ele descobertas importantes até mesmo na área do cálculo diferencial. Parece, no entanto, que não foi ele quem inventou ou provou esta fórmula. Alguns textos atribuem esta autoria a Sridhara, um matemático que viveu quase um século antes de Bhaskara.

O termo \(\Delta\) é chamado de discriminante porque podemos saber se a equação tem raízes reais ou não apenas pelo estudo de seu sinal. Existem três casos:

\(\Delta>0;\) existe \(\sqrt{\Delta}\) real e a equação tem as duas soluções dadas acima;

\(\Delta=0;\) \(\sqrt{\Delta} = 0\) e a equação possui apenas uma solução real, \(x=-b/2a\);

\(\Delta<0;\) não existe \(\sqrt{\Delta}\) real e a equação não possui raízes reais.

Figura 1

As três situações estão ilustradas na figura 1, onde representamos parábolas com \(a>0\), com concavidade voltada para cima, e \(a<0\), com concavidade para baixo.

Outra solução: mudança de coordenadas

Às vezes você consegue mostrar um resultado, ou resolver um exercício de uma forma diferente daquela que aparece no seu livro texto ou que foi mostrada por seu professor. Sempre é útil explorar estas outras possibilidades e, por isso, vamos desenvolver uma outra forma de chegar à mesma conclusão já exibida.

Observe que as raízes de uma equação do segundo grau na forma de \(y=ax^{2}+c\) (onde \(b=0\)) são simples de serem obtidas
$$
x^{2}=-\frac{c}{a}\Rightarrow x=\pm\sqrt{-\frac{c}{a}}.
$$

Figura 3

Uma equação deste tipo correponde à uma parábola simétrica em torno do eixo \(\mathcal{O}y\), (figura 3). O vértice desta parábola ocorre em \(x=0\), enquanto o vértice da parábola mais geral ocorre em \(x=-b/2a.\) Podemos fazer uma transformação de coordenadas deslocando o eixo \(\mathcal{O}x\) fazendo \(X=x+b/2a\), onde \(X\) (maiúsculo) foi usado para diferenciar da antiga coordenada. Isso equivale a estabelecer outro sistema de coordenadas de forma a fazer com que a parábola tenha seu vértice em \(X=0\), o que é mostrado na figura 4. Como
$$
x=X-\frac{b}{2a} \;\;\; \mbox{ portanto } \;\;\; x^{2}=X^{2}-\frac{b}{a}X+\frac{b^{2}}{4a^{2}}
$$
e a expressão da parábola pode ser escrita da seguinte forma
$$
y=aX^{2}-bX+\frac{b^{2}}{4a}+bX-\frac{b^{2}}{2a}+c=aX^{2}-\frac{b^{2}}{4a}+c.
$$

Figura 4

As raizes são, portanto,
$$
X=\pm\frac{1}{2a}\sqrt{b^{2}-4ac}.
$$
Como \(x=X-b/2a\), podemos encontrar a solução para \(x\):
$$
x=\frac{-b\pm\sqrt{b^{2}-4ac}}{2a},
$$
como esperado! Esta é uma solução um pouco mais complexa que a primeira mas esta técnica (a de se encontrar outro sistema de coordenadas que simplificam a solução de um problema) é usada em muitas situações, na matemática e suas aplicações. Vale a pena conhecer e dominar este conceito!

Raízes complexas

Este é um tópico um pouco mais avançado, normalmente só visto nos últimos semestres do ensino médio. No entanto não há porque um aluno curioso não possa ler e compreender esta seção! Leia também, neste site, a história dos números complexos e (muitas) outras mais operações que se pode fazer com eles, na seção sobre história do cálculo e no texto sobre variáveis complexas.

Este é um bom momento para antecipar um tópico muito interessante e útil da matemática – os números complexos. Historicamente os complexos só foram compreendidos com o estudo das equações do terceiro grau. No entanto não precisamos de tanto para introduzir e compreender estes números. Suponha, por exemplo, que precisamos resolver a seguinte equação do segundo grau: \(x^{2}+1=0\). Ela corresponde ao caso \(a=1, b=0, c=1\), da equação geral, ou seja \(\Delta=-1\) e não soluções reais. Temos
$$x^{2}+1=0\Rightarrow x^{2}=-1\Rightarrow x^{2}=\pm\sqrt{-1}.$$

Usamos acima a notação [afirmação A] \(\Rightarrow\) [afirmação B] significando que a primeira afirmação implica na segunda, ou seja, que a segunda afirmação decorre logicamente da primeira. Como sabemos, nenhum número real é raiz quadrada de \(\sqrt{-1}\) pois \((-1)^{2}=+1\) e \((+1)^{2}=+1\). Este problema intrigou os matemáticos por muito tempo, até que se propôs tratar o número \(i=\sqrt{-1}\) nas equações como obedecendo as mesmas regras sob as operações já usadas com os números reais. Suas propriedades foram estudadas e \(i\) foi denominado de “a unidade imaginária” (um nome um tanto infeliz que acabou por causar certa confusão e dificuldade na aceitação de seu uso).
Com esta convenção a raiz quadrada de um numero negativo pode ser obtida, por exemplo:
$$\sqrt{-9}=\sqrt{-1\times9}=\sqrt{-1}\sqrt{9}=3i.$$

Isto está correto \((3i)^2=-9\). Esta obordagem se mostrou eficaz e os números complexos (que possuem partes imaginárias) são de grande importância teórica e nas apliacações da matemática.
As seguintes consequências podem ser verificadas:
$$i^2 = i\times i=\left(\sqrt{-1}\right)^{2}=-1;$$
$$i^3 = i\times i\times i=i^2 \times i =-i;$$
$$i^4 = i^2\times i^2=(-1) \times (-1) =+1;$$

e assim por diante. Vamos ver como isso funciona resolvendo a seguinte equação de segundo grau
$$x^{2}-2x+2=0.$$

Identificamos que, neste caso, \(a=1,\,b=-2,\,c=2\). O discriminante é \(\Delta=b^2-4ac=-4\). Opa! Temos ai um caso de equação que não possui raíz real. Mas, como combinado, usaremos \(\sqrt{-4}=2i,\) de onde vemos que as raízes são
$$x=\frac{-b\pm\sqrt{\Delta}}{2a}=\frac{2\pm21}{2}=1\pm i.$$

Figura 2

Isto significa que encontramos duas raízes distintas: \(x=1+i\) e \(x=1-i\) que podem ser verificadas substituindo-se estes valoes na equação original.

Um número da forma \(x=a+ib\), onde a e b são reais, é denominado um número complexo. Ele possui uma parte real, a, e uma parte imaginária, b. Estes números podem ser representados no plano de Argand, figura 2, onde a parte real é desenhada ao longo do eixo \(x\) (horizontal), a parte imaginária ao longo do eixo \(y\) (vertical).

Representamos matematicamente este conjunto da seguinte forma:
$$\Bbb{C}=\left\{ x+iy;\,x,y\in\Bbb{R}\right\} .$$

Matemática na Idade Moderna


Introdução

O mundo moderno se encontra hoje inteiramente modificado pela ciência e pela tecnologia. As relações entre seres humanos e destes com seu meio ambiente foram profundamente transformadas pelo conhecimento e sua aplicação tecnológica. E, por trás deste conhecimento e em praticamente todos os setores, se encontra a matemática. O conhecimento matemático, mesmo em áreas desenvolvidas a princípio de forma totalmente acadêmica, termina por encontrar aplicação em setores diversos da tecnologia e outras áreas diversas. Por outro lado é comum que a possibilidade de aplicação estimule a evolução do pensamento matemática puro.

O estudo da história da matemática mais recente envolve um número de dificuldades. Apesar de termos hoje uma documentação muita mais farta e elaborada do que as fontes do passado, a ausência de distanciamento histórico impede a avaliação imparcial do fluxo dos acontecimentos. Além disto o passar do tempo e o teste das gerações permite uma filtragem da grande quantidade de material produzido, separando o conteúdo puramente especulativo daquele que frutificou e gerou conseqüências interessantes. Uma dificuldade adicional está na crescente ramificação de todas as disciplinas e na exigência de uma especialização cada vez mais setorizada dos profissionais da área. Se no passado alguns estudiosos brilhantes dominavam diversas áreas do conhecimento e faziam contribuições para diversas delas hoje é bastante difícil que uma pessoa domine por completo uma única área do conhecimento e, mesmo se o fizer, que se mantenha atualizado com todas as evoluções e novas descobertas no seu próprio setor. Especialistas em campos diversos costumam ter dificuldades para se entender e trocar informações. Por outro lado, um grande contingente de pessoas sem formação científica faz uso das aplicações tecnológicas como caixas pretas que elas, nem vagamente, podem entender como funcionam.

(1) Veja a seção sobre o Grupo Bourbaki.

A necessidade de se formar profissionais qualificados em setores extremamente específicos e com grande nível de aprofundamento envolve um desafio para os educadores do presente e do futuro próximo. Como o indivíduo pode obter uma visão equilibrada da sociedade e do mundo se conhece apenas um de seus setores? O ensino da matemática em particular, e das ciências exatas em geral, vem enfrentando sérias dificuldades que precisam ser consideradas e resolvidas. Muitos educadores atribuem as dificuldades à introdução da chamada matemática moderna que motivou, no ensino, um movimento de reforma curricular iniciado em torno da metade do século XX. Professores e pesquisadores perceberam que os avanços obtidos à partir do século XIX não estavam sendo ensinados nas escolas e, por isto, se propuseram a reformar o currículo de forma a fazer chegar estas inovações até os alunos 1. Alguns educadores acreditam, no entanto, que a matemática deste período é demasiado abstrata e voltada para a análise de seus próprios princípios e fundamentos, o que traz dificuldades excessivas para os estudantes. Desta forma eles não conseguem apreender os conceitos modernos e nem dominar as técnicas clássicas da matemática.

Alguns exemplos destas dificuldades podem ser citados. O tratamento formal da teoria de conjuntos passou a ser considerado como base para praticamente todos os cursos de matemática. Outro está no conceito de uma função, originariamente compreendida como uma relação ou regra que associa uma variável independente a uma dependente, \(y=f(x)\) um conceito antigo já utilizado por Galileu e aperfeiçoado, em parte, por Peter Lejeune Dirichlet. Na matemática moderna as funções são vistas como relações entre elementos de um conjunto, um conceito que só foi amadurecido no início do século XX. No caso das funções reais de uma variável, por exemplo, elas representam relações entre pares ordenados de \(\Bbb R^2\).

São válidos, portanto, os esforços atuais para se buscar uma contextualização de conteúdos ensinados na medida em que se progride no aprendizado da abstração. Cabe lembrar, no entanto, que grande parte das aplicações modernas da matemática, seja na ciência pura ou na tecnologia, envolve uma grande quantidade de abstração. Podemos citar a mecânica quântica, base da maior parte dos desenvolvimentos modernos na eletrônica, que faz amplo uso de tópicos sofisticados da matemática tais como as funções de variáveis complexas, as equações diferenciais e suas propriedades de transformação, os espaços vetoriais de dimensões infinitas, e a solução da equação de autovetores e autovalores, entre outros tópicos avançados.

O que é a Matemática

(2) Conjuntos são objetos fundamentais, não sendo portanto passíveis de definição em termos de outras noções mais elementares. Eles são usados na definição de outros objetos mais complexos. Quando são apresentados de forma informal os conjuntos são tidos como um conceito auto evidente. Em sua apresentação axiomática as propriedades são estabelecidas por meio de axiomas que descrevem suas propriedades.

A linguagem da teoria de conjuntos é baseadas em uma única relação fundamental, a relação de pertinência. Dizemos que um elemento \(a\) é pertence a um conjunto \(A\), (simbolicamente \(a \in A\)) ou, o que é equivalente, que \(A\) contém o elemento \(a\). O conjunto fica determinado pelo agrupamento de todos os seus elementos: dois conjuntos são iguais se possuem exatamente os mesmos elementos. É comum o estudo de conjuntos de números, de pontos, de funções, e muitos outros tipos de elementos. Espaços vetoriais, grupos e variedades são exemplos de conjuntos cujos elementos satisfazem propriedades específicas.

A matemática é o estudo dos conjuntos, abstratos e concretos, suas propriedades e das relações entre os elementos destes conjuntos2. A tendência à abstração, generalizada na matemática, age como um princípio unificador entre conceitos aparentemente diversos e considerados disjuntos. Grosso modo ela pode ser dividida entre pura e aplicada. A matemática pura consiste no uso do raciocínio abstrato baseado em axiomas e a exploração de suas conseqüências. Suas principais divisões são a álgebra, a análise e a geometria. A matemática aplicada consiste em seu uso como linguagem ou ferramenta descritiva de precisão em outros campos do conhecimento tais como a física, química, astronomia, engenharia, economia, estatística, etc.

As primeiras noções matemáticas surgiram como abstrações da operação de contar. O progresso do conhecimento se deu principalmente com o surgimento da civilização e do agrupamento humano em áreas urbanas. A evolução posterior se deu, principalmente, devido à necessidade de se medir terrenos, da previsão de estações do ano e da necessidade de localização. Medidas de tempo e de posição, importantes para o planejamento na agricultura e viagens, são ambas obtidas através da observação astronômica. Contribuíram também a busca de construção de armamentos cada vez mais sofisticados e o gerenciamento de mantimentos para as cidades e exércitos. Muitos autores afirmam que a construção de templos e a representação ritual do universo segundo a mitologia vigente também impulsionaram sua evolução, em especial dos aspectos mais teóricos e abstratos. As contribuições mais importantes da antiguidade são atribuídas às civilizações da Mesopotâmia e Grécia, enquanto as culturas egípcia e romana se limitaram a aperfeiçoar as técnicas de medida e a prática aritmética.

Durante o período áureo, na Grécia, a matemática recebeu um grande impulso, principalmente no que se refere à geometria. De inspiração filosófica e menos voltada para utilização pragmática, os gregos lançaram as bases metodológicas da ciência abstrata e da matemática. Esta idade de prosperidade cultural durou até que o império romano se espalhou por todo o ocidente. De mentalidade prática e pouco dada às questões filosóficas os romanos pouco contribuíram para a expansão do conhecimento matemático.

Matemática Ocidental

Com a queda do império romano e a ascensão da igreja romana o mundo ocidental entrou em um longo período de depressão intelectual, a chamada Idade das Trevas, só superada no Renascimento com a redescoberta dos grandes textos clássicos gregos e romanos. Durante os séculos XII a XV a Europa teve acesso à matemática produzida pelos árabes ou por eles apreendidas dos hindus e gregos antigos. O conhecimento recém redescoberto encontrou rápida difusão devida à invenção da imprensa e à formação das primeiras universidades européias.

O século XVII

Descartes, Napier, Newton e Leibniz

Durante o século XVII ocorreu a revolução científica impulsionada pela consolidação da teoria heliocêntrica de Copérnico e pelos avanços propostos por Galileu e Kepler e que, mais tarde, propiciou a ocorrência da revolução industrial. Em 1637, em seu livro Discurso sobre o Método, René Descartes apresentou os fundamentos da geometria analítica através do formalismo que permite a localização de pontos do plano por meio de um sistema de coordenadas, tornando possível, por exemplo, o cálculo de distâncias entre pontos por meio do teorema de Pitágoras. Problemas geométricos são, desta maneira, transformados em problemas algébricos. Em 1614 John Napier apresentou sua definição de logaritmo como operação inversa da potenciação, o que representou um grande progresso nas técnicas de cálculo, úteis principalmente para os longos e tediosos cálculos efetuados pelos astrônomos da época.

(3) Funcionais são funções que tem como argumento outras funções.

Ainda no século XVII, Isaac Newton e Gottfried Wilhelm Leibniz inventaram, independentemente e apoiados sobre os trabalhos de pensadores como Descartes e Fermat, a ferramenta fundamental da matemática como a entendemos hoje: o cálculo diferencial e integral. Apesar do grande avanço havia uma grande lacuna no conhecimento sobre os fundamentos desta disciplina e sua justificação. Em particular estava ausente o conceito de limite só plenamente desenvolvido no século XIX. Muitos matemáticos contribuíram para o aperfeiçoamento do cálculo, entre eles os irmãos Bernoulli e o matemático suíço Leonhard Euler. Euler foi um dos fundadores de duas disciplinas matemáticas: o cálculo das variações e a geometria diferencial. A geometria diferencial consiste na aplicação das técnicas do cálculo diferencial para o estudo das propriedades gerais de curvas e superfícies. O cálculo das variações, retomado por Lagrange a partir de 1760, é a área da matemática que busca generalizar o problema de se encontrar extremos (máximos ou mínimos) de funções para a procura de extremos de funcionais3, que são expressões do tipo
$$I = \int _{a}^b f\left[x,y,\frac{dy}{dx}\right] dx$$

onde \(f\) é função que tem como argumento outra função \(y(x)\) e, possivelmente, da variável independente \(x\). Busca-se encontrar a função \(y(x)\) que extremiza a expressão \(I\), denominada funcional. A solução é dada pela equação de Euler-Lagrange,
$$\frac{\partial f}{\partial y} – \frac{d}{dx}\left(\frac{\partial f}{\partial y’}\right) = 0$$

O século XVIII

As conquistas científicas ocorridas no final do século XVII e início do século XVIII e o progresso social decorrente levaram a um grande movimento de renovação intelectual conhecido com Iluminismo. O Iluminismo foi um movimento cultural e social fundamentado na exaltação da razão, o atributo humano através do qual se pode compreender o universo e aperfeiçoar sua própria condição. Nele se considerava que o objetivo humano era a obtenção do conhecimento, a liberdade e a felicidade. A crítica iluminista logo se voltou contra a tradição e a autoridade daqueles que se julgavam responsáveis por guiar o pensamento dos cidadãos e contra o dogmatismo. A luta contra o dogma se deu, na esfera política, na oposição ao absolutismo monárquico. Alguns reis, percebendo o alcance das novas idéias, apoiaram e estimularam a nova tendência. Os “déspotas esclarecidos”, como ficaram conhecidos, assumiam publicamente o papel de mecenas das artes e das ciências e abrigavam em suas cortes cientistas, artistas e pensadores, geralmente atuando como consultores e tutores de suas crianças. Esse apoio, no entanto, era quase sempre superficial e ditado por conveniências políticas ou estratégicas, não configurando uma aliança real e nem os comprometendo com as reformas.

D’Alembert, Laplace, Lagrange e Monge

Vários matemáticos importantes viveram neste período, entre eles d’Alembert, Laplace, Lagrange e Monge. Jean Le Rond d’Alembert foi um matemático e físico francês que, ao lado de Voltaire, Jean-Jacques Rousseau e Denis Diderot, participou da edição da famosa Encyclopédie, que teve enorme repercussão no século XVIII e lançou as bases culturais de um movimento de renovação que culminou com a revolução francesa, em 1789. D’Alembert nasceu em 1717 em Paris, segundo alguns historiadores filho ilegítimo de uma mãe aristocrata e um general. Sua mãe o entregou à esposa de um vidreiro de poucas condições financeiras. Mais tarde, quando já era um matemático de renome, d’Alembert se recusou a aceitar as tentativas de aproximação de sua mãe biológica, preferindo ser reconhecido como filho do casal de origem humilde que o adotou. Com 22 anos de idade D’Alembert enviou seus primeiros artigos à Academia de Ciências, da qual passou a ser membro em 1741. Nesse mesmo ano publicou sua obra Traité de Dynamique (Tratado de dinâmica), na qual estendeu a lei de ação e reação de Newton aos corpos rígidos. Estes estudos se revelaram particularmente importantes para o projeto e construção de estruturas destinadas a suportar grandes pesos, tais como pontes e grandes coberturas. Ele também fez contribuições importantes para o cálculo infinitesimal, mecânica de fluidos, astronomia e ótica. D’Alembert redigiu para a Enciclopédia o “Discours préliminaire” (prefácio) e diversos artigos sobre as ciências naturais, ensaios filosóficos e artísticos, bem como uma teoria da música. Ele morreu em Paris em 1783, seis anos antes do início da revolução popular.

De 1798 a 1801 Napoleão Bonaparte liderou um a expedição militar ao Egito, acompanhado de vários cientistas. Entre eles estavam os matemáticos Gaspard Monge e Jean-Joseph Fourier, o físico Malus e o engenheiro Nicolas-Jacques Conté. Os franceses se instalaram no Cairo onde Bonaparte criou o Instituto do Egito com a missão de difundir o progresso e o Iluminismo no Egito.

A queda da Bastilha, no dia 14 de julho de 1789, marca o início do movimento revolucionário pelo qual a burguesia francesa, consciente de seu papel preponderante na vida econômica, removeu do poder a aristocracia e a monarquia absolutista. O novo modelo de sociedade e de estado criado pelos revolucionários franceses influenciou grande parte do mundo e, por isso, a revolução francesa representou um importante marco histórico da transição do mundo para a idade contemporânea e para a sociedade capitalista baseada na economia de mercado. A declaração de independência pelos Estados Unidos e a revolução industrial iniciada na Grã-Bretanha são outras duas grandes transformações que marcaram a transição da idade moderna para a idade contemporânea.

Fourier

Durante a revolução francesa e o período napoleônico, surgiu na França uma nova geração de matemáticos, na qual se destacaram Lagrange, Laplace e Fourier, entre outros. Nesta época a maior parte dos matemáticos não estava associado a nenhuma universidade mas sim a instituições eclesiásticas ou militares. Havia ainda aqueles que se encontravam sob a proteção de algum nobre ou davam aulas particulares. Napoleão Bonaparte apreciava a matemática e sabia de sua importância para o gerenciamento das forças armadas e para a estratégia de guerra. Por isto ele estimulou o aprimoramento do ensino fundando a École Polytechnique sob a orientação do matemático Gaspard Monge.

Monge (1746-1818), procurando soluções para problemas ligados à construção de fortificações, desenvolveu os primeiros alicerces da geometria descritiva. Ele também usou o cálculo infinitesimal para determinar a curvatura de uma superfície. Plenamente identificado com os ideais da revolução francesa, Monge recebeu várias atribuições oficiais. Em 1791 integrou o comitê responsável pela implantação do sistema decimal de pesos e medidas e, de 1792 a 1793, foi ministro da Marinha. Participou da criação da École Normale Supérieure e da École Polytechnique onde lecionou geometria descritiva e analítica. Monge era um professor excepcional e suas notas de aulas foram transformadas em livros, Géométrie descriptive e Feuilles d’analyse appliquée à la géométrie, utilizados por muitos anos a seguir.

Outro matemático do período foi Joseph Louis Lagrange (1736-1813), nascido na Itália e naturalizado francês, que se dedicou a estudar a teoria da gravidade de Newton, a mecânica celeste e estabilidade do sistema solar, a teoria dos números, probabilidades e equações diferenciais. Ele também trabalhou sobre problemas algébricos que resultaram, mais tarde, na teoria de grupos desenvolvida por Évariste Galois. Lagrange não se envolveu muito com o tumulto político durante a revolução francesa mas contribuiu para o desenvolvimento das escolas recém criadas. Ele propôs um formalismo sofisticado que trata de modo uniforme as equações do movimento e que permite a solução de problemas complexos de mecânica de forma direta. Seu formalismo é uma aplicação do cálculo variacional proposto por Bernoulli e Euler. Por meio dele se mostra que as equações de movimento de Newton decorrem da minimização de um funcional construído a partir da função, hoje denominada Lagrangeana, definida como a diferença entre a energia cinética e potencial do sistema estudado, \(L=T-V\).

Também Pierre Simon de Laplace (1749-1827) fez contribuições para a matemática, a mecânica e a astronomia e contribuiu para a formação das novas escolas. De origem modesta ele se tornou professor da Escola Militar de Paris em 1769 por recomendação d’Alembert. Em 1773, iniciou a compilação das pesquisas e teorias astronômicas de Isaac Newton, Edmundo Halley e outros célebres cientistas, cujas obras se encontravam dispersas, e buscou explicar as aparentes anomalias das órbitas planetárias. Realizando cálculos minuciosos sobre os efeitos gravitacionais recíprocos de todos os corpos do sistema solar ele descobriu que as órbitas ideais propostas por Newton apresentavam desvios periódicos. Nessa época, concluiu também uma brilhante análise sobre o eletromagnetismo.

(4) Um exemplo é a integral elíptica do primeiro tipo
$$F(k, \phi)= \int _{0}^\phi\frac{d\theta}{\sqrt{1-k^2sen^2\theta}}. $$
(5) A lei da reciprocidade quadrática, mais tarde aprimorada por Gauss, afirma que se \(p\) e \(q\) são primos então há uma relação direta entre \(p\) ser quadrado módulo \(q\) e \(q\) ser quadrado módulo \(p\). Este teorema fornece um algoritmo para determinar se um inteiro \(a\) é quadrado módulo \(p\), sendo \(p\) um primo.

Em Exposition du système du monde (1796; Exposição do sistema do mundo) Laplace explicou a origem do Sol e dos planetas a partir de uma nebulosa. Em Traité de mécanique céleste (1798-1827; Tratado de mecânica celeste), em cinco volumes, fez uma completa interpretação da dinâmica do sistema solar apoiada em ferramentas matemáticas. Seus trabalhos sobre a teoria da probabilidade tornaram-se amplamente conhecidas e respeitadas nos círculos científicos. Por seu apoio à revolução ele foi Ministro do Interior de Bonaparte por seis semanas sendo nomeado s ferramentas básicas para a física matemática, estudou as integrais elípticas4 que surgiam no estudo de comprimentos de arcos e formulou a lei da reciprocidade quadrática 5 (determinação dos divisores para os quais o número dado é resto quadrático). Ele também escreveu quatro dissertações sobre a atração dos esferóides onde estudou a função que hoje leva seu nome e tem grande aplicação em astronomia. Um de seus livros, Éléments de géométrie (1794), foi utilizado por muito tempo como livro texto e, algumas vezes, foi considerado o equivalente moderno dos Elementos de Euclides. Em 1798, publicou Théorie des nombres (Teoria dos números) onde aparece o primeiro estudo sistemático das quadráticas ternárias e se utiliza a lei da reciprocidade quadrática. Contribuiu também para assentar as bases de um dos mais famosos problemas da teoria dos números, o da distribuição dos números primos. Legendre sugeriu em 1808 que o número de primos menores que um inteiro n podia ser dado por
$$\pi(n)\approx \frac{n}{ln n−1,08366}$$

O problema somente foi completamente resolvido em 1896 por Jacques Hadamard e Charles de La Vallée-Poussin, que mostraram estar correta, em primeira aproximação apenas, a suposição de Legendre.

Apesar da importância de sua contribuição logo surgiu uma geração de grandes matemáticos na Europa e seus progressos rapidamente ultrapassaram os obtidos por Legendre. Entre eles estava Gauss, responsável por notáveis avanços na teoria dos números, Abel e Jacobi, nas funções elípticas. Legendre não manteve boas relações com Gauss mas recebeu com entusiasmo as contribuições de Abel e Jacobi, divulgando-as com empenho embora elas representassem a superação de seus prórios trabalhos. Legendre morreu em Paris, em 10 de janeiro de 1833.

Ainda na época da revolução viveu Joseph Fourier (1768-1830), filho de um modesto alfaiate que veio a se tornar um grande matemático. Ainda criança Fourier mostrou talento extraordinário e mais tarde teve participação ativa na revolução, cujos ideais o atraíram para a política. Em 1795 tornou-se professor da recém-criada École Normale e logo da École Polytechnique.

Fourier apreciava o estudo da arqueologia e em 1798 acompanhou Napoleão Bonaparte ao Egito, onde teve a oportunidade de se dedicar a esta pesquisa exercendo a função de secretário do Instituto do Egito, fundado no Cairo por Napoleão. De volta à França ele ocupou cargos públicos importantes e, em 1809, recebeu o título de barão. Com a queda de Napoleão deixou a política e limitou-se à vida acadêmica em Paris como membro de várias sociedades científicas.

Dentro da tradição inaugurada por Galileu e Newton, Fourier usou a observação experimental e a matemática aplicada a problemas físicos. Em sua obra mais notável, Théorie analytique de la chaleur (1822; Teoria analítica do calor), demonstrou que a condução do calor em corpos sólidos pode ser expressa por meio de séries trigonométricas infinitas. As séries de Fourier são aplicadas a um grande número de problemas físicos e matemáticos, inclusive como base das operações em mecânica quântica. Elas representam uma generalização das séries de Taylor desenvolvendo uma função periódica em termos de uma série de senos e cossenos de múltiplos inteiros da variável. Fourier morreu em Paris em 16 de maio de 1830.

O Século XIX

Durante o século XVII e XVIII foram estabelecidas as bases da matemática em sua forma moderna. O século XIX foi um período de intensa pesquisa sobre os fundamentos da matemática e, nesta época, começaram a surgir os jornais devotados à publicação científica e os cursos de formação específica em matemática e ciências. A fundação da École Polytechnique em Paris (1794-5) contribuiu grandemente para a revitalização da geometria, tendência seguida mais tarde por escolas similares em Praga (1806), Viena (1815), Berlim (1820) e muitas outras. Os estudiosos do período começaram a se dedicar aos princípios básicos e fundamentos, como uma reação à aplicação descuidada do cálculo e da geometria cartesiana que era feita nos primeiros tempos, durante o século XVIII. Os principais avanços estavam relacionados às séries infinitas, à teoria dos números, aos conceitos de função, de continuidade e limites. A Teoria das Funções, fundada por Cauchy, Riemann e Weierstrass, seguidas dos avanços sobre geometria descritiva e projetiva, da Teoria dos Grupos das formas e dos determinantes foram outras contribuições de primeira ordem deste período.

Também no século XIX se observou o início da tendência a especialização. Lagrange, Laplace e Gauss, em períodos anteriores, dominavam razoavelmente bem a matemática, a física e a astronomia. Com o surgimento da nova geração, incluindo Carnot, Poncelet, Galois, Abel e Jacobi, a matemática se subdividiu em diversos ramos mantendo relações nem sempre muito claras entre si. É uma tendência bem recente o esforço para se compreender de forma unificada estes ramos, basicamente através da teoria de funções e dos grupos.

As revoluções sociais e políticas ocorridas durante o século anterior favoreceram o crescimento da investigação científica em toda a Europa. Grandes conquistas foram apresentadas neste período, em particular as geometrias não euclidianas e espaços n-dimensionais, álgebras não comutativas, processos infinitos e análises qualitativas. Aos poucos as nações, além da França, passaram a investir em suas instituições de ensino, embora o apoio para a pesquisa em matemática pura continuasse escasso.

Gauss

O matemático mais notável do período foi sem dúvida o alemão Carl Friedrich Gauss (1777-1855). Gauss mostrou desde cedo sua habilidade para a matemática. Conta-se que, quando criança, um professor propôs para sua turma o problema de somar os cem primeiros inteiros, ao que ele teria respondido imediatamente, calculando mentalmente, com a resposta correta: 5050. Supõe-se que ele teria visualizado que a soma procurada corresponde a soma de 50 pares de números, cada um somando 51. Aos dez anos Gauss iniciou seus estudos regulares de matemática surpreendendo os professores pela facilidade com que realizava complicadas operações e aprendia novas línguas. Em 1792 ingressou no Collegium Carolinum onde estudou as obras de Newton, Euler e Lagrange. Durante esta fase da vida ele iniciou suas pesquisas sobre a aritmética superior. Em 1799 Gauss completou seu doutorado pela Universidade de Helmstedt provando, em sua tese, o teorema fundamental da álgebra. Segundo este teorema toda equação polinomial de grau \(n \ge 1\) com coeficientes complexos admite pelo menos uma raiz complexa. É equivalente a se dizer que o polinômio \(P(z)\) de grau \(n\) possui n raízes \(z_{i}\), que são os valores satisfazendo \(P(z_i) = 0\), sendo que algumas destas raízes podem ser degeneradas ou múltiplas.

Gauss era também profundamente interessado pela física e suas relações com a matemática. Em 1801 um astrônomo seu conhecido publicou uma tabela contendo posições orbitais de Ceres, um “pequeno planeta” recém descoberto que era, na verdade, um asteróide. Infelizmente sua trajetória havia sido observada a apenas 9 graus antes que o “planeta” desaparecesse ocultado pelo Sol. Diversos atrônomos publicaram previsões de onde ele deveria reaparecer, sendo que a previsão de Gauss era bastante diferente das demais. Ao ser redescoberto Ceres estava quase exatamente onde Gauss havia predito. Para este cálculo ele usou o método da aproximação dos mínimos quadrados que ele mesmo desenvolvera, embora não tivesse ainda divulgado seu método. O método só se tornou conhecido do público em 1812. Em 1807 ele foi nomeado professor de astronomia e diretor do observatório da Universidade de Göttingen.

(6) Levantamento e representação da forma e da superfície da terra.
(7) Métricas são entidades matemáticas de medição de distância e ângulos em um espaço. O produto escalar ordinário é uma métrica de \(\Bbb R^3\).
(8) Veja adiante o tópico sobre variedades.

Gauss aplicou o método dos mínimos quadrados na solução das distribuições de probabilidade nos campos da mecânica, estatística e economia, e na abordagem da forma das superfícies curvas mediante expressões matemáticas, o que lhe permitiu determinar o tamanho e a forma aproximados da Terra. Os trabalhos de Gauss também se estenderam às áreas da ótica e do magnetismo. Dotado de grande habilidade manual, construiu e aperfeiçoou instrumentos de medição da luz e das distâncias astronômicas, tendo construído um magnetômetro, instrumento destinado a medir a intensidade do campo magnético. Gauss foi conselheiro científico, de 1821 a 1848, dos governos de Hannover e da Dinamarca, e desenvolveu minuciosos estudos de geodésia6, que o levaram a examinar, em toda a sua generalidade, problemas relativos às superfícies curvas e à questão da representação conforme. Ele também fez contribuições notáveis para a teoria dos números, o cálculo das probabilidades, para o método de solução de sistemas de equações lineares que leva seu nome, o método de Gauss-Jordan, para a teoria da potencial e análise real. Gauss morreu em Göttingen em 23 de fevereiro de 1855.

Riemann

A geometria não euclidiana, apresentada por János Bolyai e Nicolai Lobatchevski, foi uma das mais importantes descobertas do período. Gauss foi o primeiro a conceber o conceito de curvas e superfícies como espaços em si mesmo, tendo sido o fundador da geometria diferencial intrínseca, com seu Teorema Egregium. Em meados do século XIX, Bernhard Riemann introduziu um tratamento para a geometria que unificava as tentativas de Bolyai e Lobatchevski e considerava no mesmo formalismo espaços com qualquer número de dimensões. A geometria de Riemann era feita de forma puramente intrínseca, onde a curvatura e outros objetos geométricos podem ser descritos sem qualquer referência a espaços ambientes. Riemann extendeu o conceito de geometria intrínseca de Gauss a espaços de dimensão e métrica7 arbitrárias, o conceito de variedade8. O formalismo e conceitos por ele desenvolvidos influenciaram diretamente a formulação da teoria da relatividade, no século seguinte, por Albert Einstein.

Évariste Galois e Niels Henrik Abel formularam as teorias de grupos, funções e variáveis complexas, enquanto Karl Weierstrass, Richard Dedekind e Georg Cantor definiram formalmente os números irracionais, em 1872. O século XX foi marcado por avanços no campo da topologia e por discussões sobre os fundamentos da matemática, estudados por Bertrand Russell, Alfred Whitehead, David Hilbert e Georg Cantor, entre outros.

Século XX e o Grupo Bourbaki

Com a devastação provocada pela Primeira Guerra Mundial muitos jovens professores e pesquisadores foram mortos ou abandonaram a Europa. Recém graduados em matemática, tais como Dieudonné e Cartan percebiam que não haviam recebido a formação mais atualizada possível da matemática de sua época. Nas palavras de Henri Cartan: “somos a primeira geração pós guerra. Há uma lacuna antes de nós. Temos que começar tudo de novo.”

Nicholas Bourbaki, um personagem fictício mas importante

Em torno do ano de 1935 um grupo de aproximadamente dez amigos, recém graduados da école Normale Supérieure de Paris e encarregados de ensinar nas diversas universidades francesas passou a discutir a validade da forma de apresentação dos textos antigos e resolveu formar um grupo, reunidos sob o pseudônimo de Nicolas Borbaki, para apresentar novos textos e novas abordagens para o ensino da matemática. Faziam parte do grupo diversos matemáticos tais como Henry Cartan, André Weil, Jean Delsarte, Jean Dieudonné e Claude Chevalley que passaram a se reunir em um Café de Paris para planejar sua reforma. Segundo Chevalley o projeto se iniciou de forma bastante ingênua e pouco pretensiosa: basicamente ele pretendiam refazer o livro texto de E. Goursat, utilizado nos cursos de Cálculo Integral e Diferencial. Após alguma discussão eles resolveram que deveriam refazer toda a apresentação da parte essencial, do início ao fim, sem necessariamente acrescentar novidades ou novos resultados, mas estabelecendo uma melhor didática de apresentação.

O nome Bourbaki tem uma origem curiosa, segundo o relato de Weil. Enquanto ele e alguns amigos frequentavam a école Normale houve um convite para que os alunos do primeiro ano comparecessem à uma conferência proferida por um orador, supostamente famoso, que era, na verdade, um estudante mais velho disfarçado com barba postiça e simulando sotaque estrangeiro. O aluno proferiu uma palestra incompreensível, recheada de resultados falsos e absurdos embora se esforçando para torná-los verossímeis. Ao final da palestra ele concluiu com o “teorema de Bourbaki” que, evidentemente, não existia. O grupo adotou o nome, anexando Nicolas como primeiro nome, segundo sugestão da esposa de Weil.

Muitos dos membros permaneceram unidos e em atividade durante toda a sua vida, e sua contribuição ultrapassou de longe sua proposta inicial. Buscando incorporar as novidades da matemática o grupo tinha uma única regra: aposentadoria compulsória aos 50 anos. O grupo Bourbaki pretendia criar ferramentas essenciais para o uso dos matemáticos, de forma logicamente ordenada, iniciando pelos fundamentos e construindo gradualmente todo o edíficio da matemática. E como fundamento ele escolheram a teoria dos conjuntos que foi revisada em um primeiro livro de uma série de seis. O grupo Bourbaki acreditava que as antigas divisões da matemática não mais deveriam ser consideradas válidas e resolveram propor, após muitas discussões acaloradas, os seguintes tópicos e ordenamento para o seu “éléments de mathématique”:

  1. Teoria de Conjuntos,
  2. Álgebra,
  3. Topologia,
  4. Funções de uma variável real,
  5. Espaços vetoriais topológicos,
  6. Integração.

Os seguintes tópicos foram considerados essenciais: Álgebra linear e multilinear, topologia básica, grupos de Lie, variedades diferenciáveis e geomeria Riemanniana, entre outros. Segundo Dieudonné eles haviam conseguido uma forma de eliminar os tópicos que não se relacionavam de forma clara com nenhum outro aspecto da matemática.

Logo o grupo Bourbaki se apercebeu da magnitude do projeto proposto. Eles faziam três reuniões anuais que duravam uma ou duas semanas durante as quais trabalhavam nos livros. A regra principal era obter unanimidade em todos os aspectos e qualquer membro podia vetar um ponto específico qualquer e ser exposto. Qualquer membro poderia escrever sobre um tópico escolhido pelo grupo e sua versão preliminar seria lida em voz alta e severamente criticada pelo grupo. Um segundo colaborador escrevia então uma segunda versão procurando atender a todas as sugestões e críticas coletadas durante o primeiro debate. Um capítulo de livro poderia passar repetidamente por este processo até dez vezes antes que o grupo considerasse o texto satisfatório, o que levava a preparação de um livro a durar em média de oito a doze anos. Apesar disto o grupo se manteve ativo por mais de vinte anos, publicando um grande número de volumes.

A maior parte dos membros do grupo lecionava e pesquisava em universidades francesas, onde podiam novos membros recrutar entre os estudantes que demonstravam aptidão para a matemática. Não havia um número fixo de participantes e ninguém era oficialmente substituído por um novo membro. Um estudante podia ser convidado a participar sob forma probatória, sendo cobrado a compreender as discussões e a participar ativamente do processo para sua aceitação definitiva. Apesar de estar entre os maiores matemáticos de sua época o estudante deveria ser capaz de emitir opiniões sobre os tópicos em questão. O grupo produziu livros importantes sob o pseudônimo de Bourbaki e muitos anos se passaram antes que revelassem a identidade dos participantes.

Como conseqüência de tamanho rigor os livros do grupo Borbaki foram os primeiros a exibir uma organização estrita de tópicos e o uso sistemático da apresentação axiomática. Eles sempre buscavam iniciar seu tratamento sobre aspectos gerais tendendo em seguida para os casos particulares, sempre partindo do pressuposto de que a matemática é fundamentalmente simples e que que sempre existe uma resposta otimizada para cada pergunta formulada. Para atingir este fim eles definiram cuidadosamente sua notação e estrutura de apresentação das idéias, tornando os seis livros da coleção “éléments de mathématique”, ordenados de forma bastante organizada e linear. Qualquer referência feita nos livros só poderia ser encontrada em um ponto anterior da apresentação, o que na verdade desagradou alguns leitores e estudantes que reclamaram do “sistema excessivamente rígido, do estilo seco e ausência de referências externas”. Mas, apesar das queixas de alguns, o estilo do grupo teve profunda repercussão sobre a matemática de hoje, particularmente no que se refere ao ensino.

Após o término da preparação dos seis primeiros livros surgiu a questão sobre como o grupo deveria prosseguir em sua atuação. Os membros fundadores, que haviam realizado a maior parte do trabalho, estavam se aproximando da idade de aposentadoria compulsória, decidida pelo próprio grupo. Era chegado o momento de procurar por tópicos mais especializados, o que introduzia a dificuldade em se manter o mesmo estilo estruturado e o envolvimento de todos os membros, já que seria impossível conseguir que todos participassem em condições de igualdade. Apesar das dificuldades o grupo continuou produzindo textos. Em sua segunda série dois livros, Álgebra Comutativa e Grupos de Lie, foram publicados e bem recebidos pela comunidade acadêmica. Pelo final da década de setenta a proposta e métodologia do grupo Bourbaki havia sido bem assimilada e aceita, e muitos autores já estavam seguindo a mesma orientação. A tentativa de se manter o mesmo formato rígido tornou difícil para o grupo trabalhar sobre as disciplinas novas e o grupo se viu sem motivação para continuar sua tarefa. Para complicar a situação o grupo se viu envolvido em longas disputas judiciais travadas com as editoras sobre os direitos de tradução e publicação. Em 1983 Bourbaki publicou seu último volume: Teoria Espectral.

Como já foi mencionado, a proposta de trabalho do grupo Bourbaki e o estilo de apresentação era muito eficiente e influenciou toda a literatura matemática posterior, sendo que grande parte de sua notação e vocabulário permanece em uso até o presente. O grupo Borbaki foi o responsável pela adoção do símbolo \(\emptyset\) para representar conjuntos vazios, os símbolos \(\Bbb N, \Bbb Z, \Bbb Q, \Bbb R, \Bbb C\) significando os conjuntos dos naturais, inteiros, racionais, reais e complexos respectivamente, da seta \(\Rightarrow\) para indicar a implicação e a adoção das palavras injetora, sobrejetora e bijetora para se referir à aplicações ou funções. Partiu deles a escolha da teoria dos conjuntos para iniciar o estudo da matemática o que teve reflexos profundos na estrutura do ensino no mundo todo. A influência do grupo foi particularmente forte entre os matemáticos brasileiros que, por um longo período, foram profundamente influenciados pela escola francesa.

Disciplinas Matemáticas

Em sua evolução histórica, a matemática experimentou uma progressiva diferenciação em áreas. Entre as mais importantes estão a aritmética, a geometria, a álgebra, a análise matemática – que engloba o cálculo diferencial e integral –, a trigonometria, a teoria dos conjuntos, a probabilidade e a estatística.

A Aritmética é o estudo do número, suas propriedades e as operações que com ele se podem efetuar. A progressiva expansão da noção de número – do conjunto de números naturais para os inteiros, racionais, reais e complexos – definiu de certa forma o surgimento de outras disciplinas da matemática, como a álgebra e a teoria de conjuntos.

A Álgebra é a disciplina que estuda as relações entre números por intermédio de expressões simbólicas gerais. A álgebra surgiu a partir da aritmética, no estágio inicial de evolução da matemática, provavelmente na Babilônia, quando foram criadas as equações e os métodos para reduzi-las. No século XVI, várias iniciativas se tomaram no sentido de simplificar a representação de fórmulas algébricas, mas atribui-se a François Viète a primeira sistematização de uma linguagem de sinais algébricos.

Em 1591, no livro Isagoge in artem analyticam (Introdução à arte analítica), Viète empregou vogais para denotar incógnitas, e consoantes para as grandezas constantes. As potências de um número A eram assim escritas: Aq (quadrado), Ac (cubo) e Aqq (duplo quadrado). Foi Descartes quem primeiro usou as letras x, y e z para as incógnitas, e a, b e c para as constantes, e quem empregou expoentes em potências. A solução de sistemas de equações lineares por meio de matrizes e determinantes parece ter sido idéia de Leibniz, mas o primeiro tratamento sistemático da teoria dos determinantes deve-se a Alexandre-Théophile Vandermonde, em 1771, e Pierre-Simon Laplace, em 1772.

Melancolia I é uma gravura de 1514 pelo mestre Albrecht Dürer. Diversas referências são feitas ao conhecimento matemático, como um “quadrado mágico” 4 × 4, com as duas células centrais da linha inferior mostrando a data da gravura, 1514, um romboedro com um crânio humano sobre ele. Aparecem também uma bússola, uma régua e uma ampulheta.

A Geometria é a mais antiga disciplina matemática, se ocupando do estudo das propriedades do espaço. Na Babilônia, a geometria se dedicou preferentemente à resolução dos problemas de triângulos retângulos. Os estudos babilônicos influenciaram os geômetras gregos, que tiveram nos Elementos de Euclides a melhor expressão de suas teorias. A geometria de Euclides se baseou no estudo do volume das figuras geométricas de revolução (esferas, cilindros, cones) e das regras de paralelismo e proporcionalidade.

Boole

Com o emprego dos métodos analíticos de Descartes na geometria, a partir do século XVII, as expressões geométricas passaram a ser traduzidas em expressões algébricas. O século XIX assistiu ao surgimento de geometrias não euclidianas, como as de Lobatchevski e de Bolyai, baseadas em premissas de não proporcionalidade, espaços curvilíneos, distorção de distâncias etc. A geometria euclidiana, por essa razão, costuma ser denominada geometria plana, para distingui-la das geometrias parabólicas e hiperbólicas que se aproximam mais da concepção moderna do mundo e do espaço. A topologia, ramo mais novo e mais sofisticado da geometria, se encarrega do estudo das propriedades de figuras geométricas que subsistem a deformações contínuas.

Cantor

A Análise Matemática consiste em um conjunto de processos e teorias gerais que incluem a teoria dos números e dos conjuntos, a teoria das funções, o estudo das equações diferenciais e integrais, o cálculo das variações, a teoria das séries e integrais de Fourier e os aspectos puramente algébricos da teoria do potencial, da probabilidade e da estatística, entre outros. Entre as principais disciplinas da análise está a teoria das séries – que analisa as sucessões de números reais e complexos – e o cálculo diferencial e integral. O progresso da análise deu origem a novos campos da matemática, como a análise harmônica, a tensorial e a combinatória, que levou ao cálculo das probabilidades.

Os estudos dos matemáticos George Boole e Georg Cantor conduziram a uma nova interpretação da matemática, baseada nas relações lógicas e na noção de conjunto ou coleção de termos que mantêm uma relação qualquer entre si. Essa disciplina deu origem à matemática moderna e determinou a formação de toda uma série de termos singulares, tais como aplicações, correspondências, relações, que não tinham sido empregados antes em matemática.

Pierre de Fermat

O cálculo das probabilidades surgiu de estudos sobre os jogos de azar realizados, no século XVII, por Pascal, Fermat, Huygens e Jakob Bernoulli. Em 1662, John Graunt analisou estatisticamente a mortalidade humana e, em 1693, Edmund Halley mostrou como calcular anuidades de seguros de vida a partir de quadros de mortalidade. No século seguinte, a teoria dos erros de Laplace, Legendre e Gauss forneceu recursos para empregar a estatística nas finanças públicas, na saúde pública e em outros campos. No século XX, com a evolução da física quântica, a estatística passou a ser um instrumento de inestimável valor para a teoria atômica. Em meados do século, a visão determinista da natureza começou a ser substituída por uma visão probabilística. A influência progressiva da informática na vida cotidiana tende a aumentar a importância prática das teorias de probabilidade e estatística.

Quatérnions

Rowan Hamilton

Quatérnions são entidades relacionadas de perto com os números complexos. Argand, além de apresentar o conceito da representação geométrica dos complexos, tentou, sem sucesso, extender seu método a espaços com mais de duas dimensões. Coube a William Rowan Hamilton na Irlanda em 1843 a descoberta dos quatérnions, uma extensão dos conceitos de Argand. Um quatérnion é uma extensão não-comutativa dos complexos, obtida ao se acrescentar ao conjunto dos reais os elementos \(i, j, k\) satisfazendo as relações
$$i^1=j^2=k^2=ijk=-1.$$
Estes elementos são multiplicados da seguinte forma
$$ij=k,\, jk=i,\, jk=i,\, ki=j,\, ji=−k,\, kj=−i\, \text{e}\, ik=−j,$$

e cada quatérnion sendo a a combinação linear real dos quatérnions unitários 1,i,j e k, i.e., pode ser escrito como \(a+bi+cj+dk\). A adição é feita como nos complexos, pela adição dos termos correspondentes. Como espaço vetorial sobre os reais os quatérnions tem dimensão 4, enquanto os complexos tem dimensão 2.

A descoberta foi recebida com incredulidade no início, principalmente devido à necessidade da introdução de uma álgebra não comutativa. Entre o público leigo da época houve uma certa comoção pois o abandono de uma lei simples da álgebra, como a comutatividade, parecia minar os fundamentos da matemática e do conhecimento científico como um todo. Apenas dez anos mais tarde Hamilton publicou seu texto Lectures on Quarternions, seguido em 1866 por Elements of Quaternions.

No mesmo ano da publicação inicial de Hamilton, Grassmann apresentou seu trabalho que continha muito em comum com a teoria dos quatérnions. Hermann Günther Grassmann (1809 – 1877) foi um matemático e físico com amplos interesses que, no entanto, teve dificuldades para ver consagrados os seus esforços. Seu livro, Geometrische Analyse, foi apresentado como único candidato a um prêmio oferecido para quem elaborasse um sistema de cálculo geométrico independente de coordenadas, tendo sido considerado vencedor em 1846. A contribuição de Grassman é uma das grandes responsáveis pelo formalismo moderno independente de coordenadas utilizado na Geometria Riemanniana.

Grassmann submeteu sua tese de doutorado em 1862, que deveria ser analisada por Ferdinand Moëbius. Este, no entanto, não se julgou habilitado para fazer o julgamento, repassando o documento para Ernst Kummer que rejeitou a tese sem ter feito uma análise mais profunda. Grassmann recebeu o título de professor de nível médio, tendo permanecido no ensino por algum tempo. Mais tarde, desapontado com a difuldade de aceitação de suas idéias se voltou para o estudo da linguistíca, tendo feito importantes contribuições na área e recebendo o título honorário de doutor pela University of Tübingen em 1876. A álgebra de Grassmann é introduzida sobre elementos de um espaço vetorial \(V\) com a adoção de uma operação totalmente anticomutativa representado pelo símbolo \(\land\), o produto exterior, satisfazendo
$$ u\land u = 0 \quad \forall u \in V, $$
$$ u\land v = -v \land u, \quad \forall u, v \in V. $$
O produto exterior é uma generalização do produto vetorial definido sobre vetores do \(\Bbb R ^3\).

Teoria dos números

(9) As formas quadráticas, por exemplo, são polinomiais em várias variáveis.

A Teoria dos números, tópico favorito na Grécia antiga, viu seu renascimento nos séculos XVI e XVII, em especial através dos trabalhos de Viète e Fermat. Mais tarde Euler e Lagrange contribuiram para seu aperfeiçoamento e, finalmente, Legendre (1798) e Gauss (1801) colocaram a disciplina em sua forma moderna. Ela está dirigida para o estudo dos inteiros, em particular dos primos, das congruências, dos resíduos, da lei de reciprocidade e das formas9, e no estudo dos números complexos. A teoria dos primos atraiu a atenção de diversos pesquisadores durante o século XIX, embora a maioria dos resultados iniciais tenham sido de caracter particular e não geral. Tchébichef (1850) foi o primeiro a fornecer resultados importantes sobre o número de primos existentes dentro de determinado intervalo. Um pouco mais tarde Riemann (1859) obteve uma fórmula para o limite dos primos menores ou iguais a um certo inteiro.

Leonhard Euler

Gauss foi o responsável pela introdução da Teoria das Congruências. Ele foi o primeiro a usar a notação \(a\equiv b\pmod m\) para representar \(m \mid (a−b)\) e explorar a maior parte deste assunto. Legendre foi outro importante estudioso do campo, tendo feito uma compilação completa do trabalho de seus predecessores e propondo a teorema da lei da reciprocidade dos resíduos quadráticos e provando sua validade para alguns casos especiais. Sem conhecer estes trabalhos, em 1875 Gauss redescobriu e demonstrou o teorema para o caso geral. Mais tarde a teoria foi extendida pelo próprio Gauss e por Jacobi, para incluir a reciprocidade cúbica e biquadrática.

Também a Gauss se deve a representação de números por meio de formas binárias quadráticas. Cauchy, Poinsot (1845), Lebesque (1859, 1868) e Hermite fizeram novas contribuições a este tópico. Eisenstein e Smith trabalharam sobre a teoria das formas ternárias e sobras formas em geral. Eles também se dedicaram à representação de números como somas de quadrados de 4, 5, 6, 7 e 8.

O último teorema de Fermat foi provado em outubro de 1996 pelo matemático inglês Andrew Wiles.

Na Alemanha um dos estudiosos mais dedicados à teoria dos números foi Dirichlet, o primeiro a ensinar este tema em uma universidade daquele país. Euler e Legendre já haviam trabalhado sobre o teorema de Fermat mostrando que não existem trios de inteiros satisfazendo \(x^n + y^n = z^n\) para n = 3, 4. Dirichlet mostrou que, para qualquer \(x,y,z\) e \(a\) inteiros vale \(x^5+y^5 \neq az^5\). Outros autores importantes na Alemanha foram Kronecker, Kummer, Schering, Bachmann e Dedekind. Na França as contribuições principais partiram de Borel, Poincaré, Tannery e Stieltjes.

Números Irracionais e Transcendentes

A plena aceitação dos números negativos só se deu durante o século XVI. No século XVII se desenvolveu a notação utilizada hoje para representação das frações decimais. Mais tarde, já no século XVIII, os números imaginários se estabeleceram como ferramentas importantes, principalmente através do trabalho de De Moivre e Euler. Restou para os matemáticos do século XIX o aperfeiçoamento da teoria dos números e funções complexas e a discriminação dos irracionais, demonstrando que eles se separam entre números algébricos e transcendentes. Vale notar que o estudo dos irracionais permanecia em estado praticamente de suspenção desde a época de Euclides. Durante o ano de 1872 foram publicadas as teorias de Weierstrass, Heine, Cantor e Dedekind. Weierstrass, Cantor e Heine usaram as séries infinitas como base de sua teoria, enquanto Dedekind introduziu o conceito de corte no sistema dos números reais, separando os irracionais em dois grupos com características próprias.

(10) Pode ser colocado em relação biunívoca com os naturais.
(11) O conceito de ordens do infinito foi estabelecido por Cantor.
(12) A função \(\Gamma (x)\) é definida através da expressão:
$$\Gamma (x) = \int_0^\infty t^{x-1} e^{-t}dt, x \gt 0.$$
Ela generaliza o conceito de fatorial uma vez que \(\Gamma (n+1) = n!\), para \(n\) inteiro.

Um número irracional é algébrico se for a solução de uma equação polinomial na forma de
$$a_n x^n + a_{n-1} x^{n-1} + \cdots + a_0 = 0,$$
onde \(n \ge 1\) e os coeficientes \(a_i\) são inteiros ou racionais, não todos nulos. Caso contrário, se o irracional não for solução de nenhum polinômio desta forma, ele é transcendental. O conjunto dos números algébricos é numerável10, enquanto o conjunto dos reais é inumerável. Isto implica em que os trancendentais são também inumeráveis e, embora existam inifinitos algébricos existe uma quantidade ainda maior11 de transcendentais. Não existem critérios definitivos para se mostrar que um número é transcendente, o que pode ser uma tarefa bastante difícil de realizar. Alguns exemplos já demonstrados de números transcendentais são: \(e, ea\), se \(a\) é algébrico não nulo, \(\pi, e\pi, 2\sqrt 2, sen(1) ln(b) \), se \(b\) é positivo, racional e diferente de 1, \(\Gamma (\frac{1}{3})\) e \(\Gamma (\frac{1}{4})\) (nota 12).

O primeiro a perceber a existência dos números irracionais transcentes foi Kronecker. Lambert provou em 1761 que \(\pi\) não é racional e que \(e^n\) é irracional se \(n\) é racional. Sua demonstração, no entanto, não foi considerada completa. Legendre (1794) completou a demonstração mostrando que \(\pi\) não é o quadrado de um racional. Mais tarde Liouville (1844, 1851) mostrou a existência de números transcendentes e uma demonstração completa foi apresentada por Cantor em 1873. Hermite (1873) provou primeiro que \(e\) é transcendente e Lindemann (1882), partindo do trabalho de Hermite, mostrou o mesmo para o número \(\pi\). As provas de Lindemann foram bastante simplificadas por Weierstrass (1885) e Hilbert (1893), e mais tarde apresentadas de forma bastante elementar por Hurwitz e Gordan.

A descoberta dos números transcendentais permitiu a solução de vários problemas antigos na geometria, em especial de que a quadratura do círculo é impossível por meio exclusivo de régua e compasso, porque \(\pi\) é transcendental.

Teoria das Equações

A Teoria as Equações se dedica à localização de raízes, exatas ou por meio de aproximações. Já no século XVII Budan e Fourier fizeram contribuições neste campo, mas os métodos envolvidos eram excessivamente trabalhosos. Em 1829 Sturm comunicou à Academia Francesa seu famoso teorema que representa uma das descobertas mais brilhantes da análise algébrica.

A localização aproximada de raízes pode ser efetuada por vários métodos. Newton elaborou um método mais tarde aperfeiçoado por Fourier. Horner desenvolveu o método comumente usado até hoje para raízes reais, enquanto o tratamento de raízes complexas permanece não completamente desenvolvido.

O Teorema Fundamental, afirmando que toda equação numérica tem uma raíz, foi usada por algum tempo antes que sua demonstração fosse dada, primeiro por D’Alembert (1746), depois por Lagrange (1772), Laplace (1795), Gauss (1799) e Argand (1806). A afirmação geral de que cada equação algébrica de grau \(n\) tem exatamente \(n\) raízes decorre da proposição de Cauchy (1831) sobre o número de raízes dentro de um contorno dado. Também existem provas encontradas por Gauss, Serret, Clifford (1876) e outros.

Gauss percebeu a impossibilidade de se encontrar uma expressão para as raízes de equações algébricas com grau maior que 4, uma percepção que se fortaleceu com o fracasso do método de Legendre para estes casos. A primeira prova completa deste teorema, no entanto, só foi obtida por Abel (1802–1829), um matemático norueguês que, embora tendo morrido de tuberculose muito jovem foi considerado um dos maiores matemáticos de seu século. Os grupos comutativos recebem também o nome de grupos abelianos em sua homenagem.

A Teoria Moderna das Equações é basicamente devida a Abel e Galois. Evariste Galois foi um matemático francês que, já aos 17 anos, desenvolveu conceitos originais no campo da álgebra, da teoria dos números e teoria dos grupos. Galois foi o primeiro a usar a palavra grupos para representar as permutações possíveis sobre um conjunto de elementos. Galois escreveu um documento sobre a teoria das equações mas nunca conseguiu publicá-lo em vida. Sua argumentação parecia insuficiente para os demais matemáticos da época, tais como Cauchy e Poisson. Hoje a teoria de Galois representa um dos ramos principais de estudo da Álgebra Abstrata.

Niels Henrik Abel

Galois era um republicano fervoroso e se viu envolto em diversos problemas por causa disto, o que leva alguns historiadores a concluir que sua morte em um duelo pode ter sido planejada por motivos políticos. Na noite anterior ao duelo, supostamente travado em defesa da honra de uma mulher, ele foi convencido de que tinha poucas chances de sobrevivência e passou toda a noite escrevendo cartas para amigos republicanos, buscando transferir seus conhecimentos e idéias sobre a matemática. No último dos artigos ele delineia os princípios mais importantes sobre um tema no qual vinha trabalhando e anexa cópias de artigos submetidos e não aprovados. Durante o duelo ele foi atingido no estômago, morrendo no dia seguinte.

As tentativas fracassadas para se resolver equações do quinto grau por meio de radicais levou os matemáticos a procurar outras formas de expressão destas soluções. Em 1858 Hermite mostrou a possibilidade de se obter uma solução usando funções elípticas. Kronecker, Klein e vários outros fizeram contribuições para a obtenção de soluções por meio de funções hiper-elípticas.

Equações binomial, aquelas que podem ser reduzidas à forma \(x^n -1 = 0\), admitem pronta solução através do uso dos complexos. As raízes enésimas da unidade são
$$ z_n = \cos \frac{2k\pi}{n} + i \sin \frac{2k\pi}{n}, k =0, 1, \ldots, n-1,$$
n raízes distintas, uniformemente distribuídas sobre o círculo unitário \(|z|=1\). Coube a Gauss, no entanto, mostrar que uma solução algébrica é possível. Lagrange (1808) extendeu a teoria e explorou suas aplicações à geometria, sendo esta uma das principais contribuições do sécula XVII para a matemática. Abel generalizou os resultados obtidos por Gauss para o tratamento das chamadas equações binomiais, do tipo \(\sum_{0}^{n-1} x^m = 0\).

Algumas equações especiais, importante para o estudo da geometria, foram tratadas por Hesse, Steiner, Cayley, Clebsch e Kummer. São equações do nono grau determinando os pontos de inflexão de uma curva do terceiro grau, além da determinação dos pontos destas curvas que podem ter contato de quinta ordem com cônicas. Funções que exibem simetrias sob permutações de algumas ou todas as suas raízes são particularmente importantes na teoria moderna e as descobertas de Galois certamente revelaram a importância destas simetrias.

Equações Diferenciais

A Teoria das Equações Diferenciais foi considerada por Sophus Lie como a parte mais importante da matemática moderna. Elas são equações que envolvem uma função desconhecida de uma ou mais variáveis, e suas derivadas. Para uma função real de uma única variável, \(y = y(x)\), podemos expressar estas equações em forma geral como \(F\left(x, y, y’, y”, y^{(n)}\right) = 0\) onde usamos a linha para expressar a derivação. As equações que envolvem derivadas em apenas uma variável são chamadas equações diferenciais ordinárias. Caso contrário, equações que envolvem derivadas em mais de uma variável são chamadas de equações diferenciais parciais. Um exemplo de equação parcial é a equação de onda


$$\frac{\partial ^2 \phi(x,t)}{\partial x^2} = \frac{1}{c^2} \frac{\partial ^2 \phi(x,t)}{\partial t^2} $$
onde \(c\) é uma constante que surge da integração da equação. Pode-se mostrar que \(c\) é a velocidade de propagação da onda. A ordem de uma equação diferencial é igual a derivada de maior ordem que nela aparece.

As aplicações desta disciplina na geometria, física e astronomia, especialmente as equações diferenciais parciais lineares com coeficientes constantes, sempre foram percebidas, desde Newton e Leibniz. Como resultado muitos matemáticos trabalharam nelas, passando pelos irmãos Bernoulli, Riccati, Clairaut, d’Alembert e Euler. O primeiro método geral de solução das equações diferenciais ordinárias lineares com coeficientes constantes é devido a Euler. Ele mostrou que a equação linear
$$a_2 y” + a_1 y’ + a_0 y =0$$
pode ser resolvida através da substituição \(y = \exp^{rx}\), o que reduz a que reduz a equação acima a uma outra apenas algébrica, a chamada equação característica
$$F(r)=a_2 r^2 + a_1 r + a_0 =0.$$

O estudo das equações diferenciais parciais se iniciou com Lagrange (1779 a 1785). Também Monge (1809) estudou equações ordinárias e parciais de primeira e segunda ordem aplicando-as à geometria. Pfaff (1814, 1815) foi o responsável pelo primeiro método de solução de equações parciais de primeira ordem, método que foi logo reconhecido e estudado por Gauss (1815). Um pouco depois Cauchy (1819) encontrou um método mais simples, usando a equação característica de Monge. Também a ele se deve a afirmação de que toda equação diferencial define uma função que pode ser expressa por meio de uma série convergente, o que foi mais tarde demonstrado por Briot, Bouquet e Picard (1891).

(13) O trabalho mais importante de Frobenius foi, no entanto, associado ao desenvolvimento da teoria de grupos.
(14) Isto é, com a mesma forma.
(15) A transformada de Laplace de uma função \(f(t)\) é definida como
$$L\{f(t)\} = \int_0 ^\infty (t) \exp ^{-st}dt.$$
Sophus Lie

A teoria das equações parcias de ordem superiores, introduzida por Laplace e Monge, recebeu de Ampère (1840) contribuições importantes. A solução de equações diferencias nas proximidades de um ponto singular foi elaborada por Frobenius13. Em torno de 1870 Sophus Lie apresentou seus resultados sobre equações de primeira ordem, estabalecendo uma fundamentação sólida para a teoria. Lie mostrou que os grupos contínuos formados pelas transformações de coordenadas que deixam uma equação invariante14 servem para a classificação destas equações e que equações que admitem as mesmas transformações apresentam as mesmas dificuldades de solução.

Uma contribuição importante para o estudo das equações diferenciais, apsear de não imediatamente reconhecida pela comunidade dos matemáticos devido a sua falta de rigor, foi feita por Oliver Heaviside. Heaviside estudou a teoria eletromagnética de Maxwell aletrando seu formalismo original baseado em quatérnios, para a terminologia moderna do cálculo vetorial. desde forma ele pode reduzir as vinte equações originais, com vinte incógnitas, para as quatro equações vetoriais que hoje estudamos. Entre 1880 e 1887 ele desenvolveu o cálculo operacional e o uso da transformada de Laplace15 para reduzir equações diferenciais a equações algébricas de solução muito mais simples. Como vantagem adicional seu formalismo permite o tratamento de sistemas com entradas descontínuas e é extensamente usado na engenharia, especialmente na eletrônica e no tratamento de sinais. Contra seus críticos Heaviside argumentava que a ausência de uma fundamentação formal rigorosa não deveria impedir o uso e o desenvolvimento de um teoria.

As equações lineares são, de longe, melhor conhecidas e bem estudadas que as não lineares. No entanto muitos fenônenos naturais importantes são descritos por equações não lineares. As equações diferenciais não lineares representam uma área de pesquisa aberta em matemática e muitos resultados interessantes têm sido obtidos na atualidade. Em particular a pesquisa moderna se volta para a consideração dos sistemas de equações diferenciais não lineares, que podem exibir comportamentos surpreendentes. Uma de suas características importantes consiste na dependência muito sensível das condições iniciais propostas, o que gera comportamentos às vezes imprevisíveis que têm sido denominados de caos. Um exemplo é o do sistema de Lorenz, composto por três equações acopladas

$$x′=a(y−x);\quad y′=x(b−z)−y;\quad z′=xy−cz$$

onde as variáveis x, y e z deveriam representar originalmente características atmosféricas e a = 10, b = 28,c = 8/3, proposto como uma modelagem para condições meteorológicas.

(16) O movimento de dois corpos pode ser resolvido de forma exata. Equações que envolve mais de dois corpos não tem solução analítica.
Henri Poincare

Outro exemplo importante de sistema não linear é o sistema de equações que descreve o movimento de muitos corpos16, por exemplo na descrição do movimento planetário no sistema solar. Um dos matemáticos importantes a trabalhar no problema foi Henry Poincaré (1854 – 1912), também físico e filósofo da ciência. Em seu trabalho sobre o problema de 3 corpos ele foi a primeira pessoa a descobrir o comportamento caótico das soluções. Em 1885 Oscar II, rei da Suécia, anunciou uma competição matemática com um prêmio em dinheiro para quem demonstrasse a estabilidade do sistema solar. Poincaré apresentou uma solução que ele considerava correta e recebeu o prêmio. Mais tarde um erro foi descoberto mas o prêmio foi mantido. Poincaré havia mostrado que pequenas perturbações ou variações das condições iniciais poderia se proagar gerando grandes diferenças na previsão das órbitas no futuro. Nas palavras de Karl Weierstrass, “embora seu trabalho não possa ser considerado como solução completa do problema proposto ele é de tamanha importância que sua publicação vai inaugurar uma nova era na história da mecânica celeste”.

O estudos das equações e sistemas não lineares, de fato, representa uma mudança profunda, não apenas para a mecânica celeste mas para o entendimento da natureza em geral. A maioria dos fenômenos naturais exibem comportamentos não lineares, tais como o fluxo rápido da água de uma correnteza ou a troca de calor entre partes de um organismo vivo. Devido às dificuldades deste estudo até recentemente tudo o que se podia fazer era estudar os casos lineares ou aproximações lineares de sistemas caóticos. É de se esperar, portanto, que o grande esforço que vem sendo feito nesta área frutifique em praticamente todas as áreas de aplicação.

Teoria de Grupos

Um conceito extremamente importante desenvolvido na matemática moderna, em especial como conseqüência do trabalho de Galois é o de grupos. Um grupo é um conjunto \(G\) dotado de uma operação \(\cdot\) satisfazendo as seguintes propriedades:

  1. Se \(x, y \in G \Rightarrow x \cdot y \in G \) (fechamento)
  2. Se \(x, y, z \in G \Rightarrow x \cdot (y \cdot z) = (x \cdot y) \cdot z \) (associatividade)
  3. Existe um elemento \(e \in G\) tal que \( e \cdot x = x \cdot e = x \) (existência da identidade)
  4. Para cada elemento \(x \in G\) existe um elemento \( u \in G \text{satisfazendo } x \cdot u = u \cdot x = e \) (existência do inverso)
Evariste Galois

Historicamente a teoria dos grupos se deriva de três frentes de estudo: a teoria das equações algébricas, a teoria dos números e a geometria. Euler, Gauss, Lagrange, Abel e Galois foram os principais pesquisadores envolvidos com sua elaboração. A procura de raízes para equações de grau \(n\) foi um dos precursores desta teoria, sendo que alguns casos mais simples já haviam sido tratados desde a época de Hudde, no século XV. A elaboração da teoria abstrata dos grupos foi um processo lento. Galois definiu um grupo em 1832 mas suas idéias foram recebidas com relutância pela comunidade acadêmica e seu artigo só foi publicado em 1846 por Liouville. Galois usou amplamente o conceito de grupos em seus artigos mas não forneceu uma definição formal, o que de certa forma explica a dificuldade que Poisson e outros tiveram para aceitar os novos conceitos.

Em 1845, antes da publicação dos artigos de Galois por Liouville, Cauchy apresentou uma definição. Ele tratou das substituições que podem ser aplicadas sobre \(n\) letras \(x_1, \ldots, x_n\), e definiu as permutações como operações que podem ser obtidas por meio de um número finito destas substituições, em qualquer ordem. Ao conjunto de todas as permutações ele denominou “sistema conjugado de substituições” e, por algum tempo esta denominação foi usada juntamente com a expressão grupo. Em 1863 Jordan escreveu um comentário sobre a obra deixada por Galois, utilizando a palavra grupo, que se tornou padrão desde então.

(17) Hoje existe controvérsia sobre a necessidade deste axioma pois, segundo alguns autores, o fechamento é uma consequência da definição de uma operação binária.

Não existe concordância completa entre os historiadores sobre quanta influência Cauchy recebeu de Galois. Sabe-se que Cauchy leu os artigos submetidos à Academia e, embora não os tendo compreendido ou aceitado plenamente e, não havendo ali uma definição explicíta de grupos, ele deve ter sido por eles influenciado. Ambos os autores definiram grupos em termos de suas propriedades de fechamento18, enquanto que os axiomas da associatividade, existência da identidade e da inversa não apareciam. Ambos tratavam de permutações onde apenas é fechamento é suficiente para a definição de grupo. Por outro lado Cauchy também havia mantido correspondência e lido artigos de Ruffini onde o conceito de grupos aparece claramente, embora não explicitamente definido.

A primeiro matemático a apresentar uma definição formal e abstrata de grupos foi Cayley, em artigos escritos entre 1854 e 1878. No primeiro deles ele apresenta a definição em termos do símbolo \(\Theta\) que opera sobre os elementos \(x, y, \ldots \), resultando em
$$ \Theta(x, y, \ldots) = (x’, y’, \ldots),$$

onde \((x’, y’, \ldots)\) são funcões quaisquer de \((x, y, \ldots)\). Em seguida ele define a operação \(1\), que deixa os elementos inalterados, e a operação resultado da operação primeiro por depois por Cayley também faz a exigência de que a associatividade seja respeitada, e ainda observa que não é necessário que sejam iguais as operações e Ele não foi totalmente bem sucedido em sua tentativa porque a associatividade vale sempre para operadores, assim como para permutações, e não é claro que as funções de permanecerão como membros do sistema original. Em 1878 Cayley escreveu que “um grupo é definido pela lei de composição de seus membros”, conceito adotado por Burnside e outros, que aperfeiçoaram a definição até sua apresentação moderna. É interessante notar que nem Cayley nem Burnside exigiram que seus grupos fossem finitos.
Em 1870 Kronecker forneceu uma definição de grupo em um contexto totalmente diferente, no contexto da teoria dos números algébricos. Outros matemáticos a contribuir com o desenvolvimento da teoria foram Weber, Burnside, Kronecker e Schur, entre outros.

O estudo dos grupos contínuos, hoje conhecidos como grupos de Lie, foi iniciado de forma sistemática em 1884 por Sophus Lie, seguido pelos trabalhos de Killing, Study, Schur e Maurer. Marius Sophus Lie (1842 – 1899) foi um matemático norueguês que trabalhou sobre a teoria das simetrias contínuas e aplicou este conceito ao estudo das estruturas geométricas e das equações diferenciais. Sua principal realização foi a descoberta dos grupos de transformação contínuos, hoje chamados grupos de Lie.

Um grupo de Lie é uma variedade cujos elementos são também elementos de um grupo sob as operações definidas sobre o conjunto. Grupos de Lie são importantes na análise matemática, na geometria e na física sendo a ferramenta básica para a descrição de estruturas analíticas e suas simetrias.

Emmy Noether

Os grupos discretos receberam contribuições de Felix Klein, Lie, Poincaré e Piccard. Outros matemáticos importantes na área foram Emil Artin, Emmy Noether, Sylow e vários outros. A teoria de grupos é utilizada praticamente em todas as áreas da matemática, representando um conceito com grande poder de simplificação e unificação de conceitos aparentemente disjuntos. Além disto ela tem aplicações importantes na física e nas diversas outras áreas da ciência, muitas vezes para representar as simetrias exibidas nos sistemas estudados, na forma de grupos. Uma simetria interna qualquer de uma estrutura está em geral associada a uma propriedade invariante sob alguma transformação e o conjunto de todas as transformações que deixam esta estrutura invariante, juntamente com a composição de transformações, forma um grupo. Na mecânica e na teoria de campos, por exemplo, pode-se mostrar que um sistema invariante por translações espaciais apresenta conservação do momento linear, a invariância por rotações implica na conservação do momento angular enquanto a invariância por translações temporais corresponde à conservação da energia total do sistema.

Os grupos também são usados na química e na cristalografia para classificar estrutruras cristalinas, poliedros regulares e simetrias na estrutruras moleculares.

Álgebra Multilinear

A álgebra multilinear é uma extensão dos conceitos e métodos da álgebra linear. Assim como a álgebra linear generaliza a noção de um vetor do \(\Bbb R^3\) para espaços vetoriais mais gerais e abstratos, a álgebra multilinear estende o conceito de tensor para a teoria dos espaços tensoriais. Um tensor é uma aplicação \(\phi\) linear em qualquer uma de suas entradas, ou seja:
$$\phi(\alpha x + \beta y, z, \ldots) = \alpha \phi(x, z, \ldots) + \beta \phi(y, z, \ldots),$$

sendo esta operação válida para todas as entradas da transformação. Tipos diversos de tensores surgem nas aplicações voltadas para a física e a engenharia. Um exemplo de tensor conhecido desde níveis básicos do estudo da matemática é a métrica de Euclides, que representaremos aqui por \(\eta\). Se \(\vec{u}, \vec{v}\) são vetores do espaço então
$$\eta(\vec{u}, \vec{v}) = \vec{u} \cdot \vec{v} \text{, o produto escalar usual.}$$

Lembrando: Dados dois vetores \(\vec{u} = \sum_i a_i \hat e_i, \vec{v} = \sum_i b_i \hat e_i\), em uma base \(\{ \hat e_i \} \) qualquer, o produto escalar é difinido como
$$\vec{u} \cdot \vec{v} = \sum_i a_i b_i.$$

Esta é, claramente uma operação multilinear e simétrica pois \(\eta(\vec{u}, \vec{v}) =\eta(\vec{v}, \vec{u})\).

Naturalmente o mesmo conceito pode ser generalizado para espaços de dimensões maiores, \(\Bbb R^n\) e para outros espaços vetoriais quaisquer.

Albert Einstein, Levi Civita, Felix Klein e Marcel Grosmann

O termo tensor foi criado por William Rowan Hamilton em 1846 para descrever a norma em um tipo de sistemas algébricos, mais tarde conhecidos por Álgebras de Clifford. Woldemar Voigt, em 1899 usou o termo com seu significado atual. A notação de tensores usando coordenadas foi apresentada por Gregorio Ricci-Curbastro em 1890, sob o título de Cálculo Diferencial Absoluto, trabalho que recebeu ampla divulgação por meio do texto clássico de Tullio Levi-Civita, de 1900, com o mesmo título. No século XX o assunto veio a ser chamado de Cálculo ou Análise Tensorial, mais recentemente de Álgebra Multilinear. O tema alcançou sua plena aceitação após seu uso na teoria da Relatividade Geral de Einstein, que é formulada inteiramente na linguagem dos tensores, em particular na formulação geométrica dada por Riemann, que ele aprendeu com seu amigo, o geômetra Marcel Grossmann e com o próprio Levi-Civita.

Em meados do século XX o estudo dos tensores foi reformulado de forma geral e abstrata. Um tratado sobre o assunto produzido pelo grupo Bourbaki teve influência decisiva nesta direção, tendo inclusive cunhado o termo “Álgebra Multilinear”. Esta reformulação se deu sobre a teoria desenvolvida por Hermann Grassmann, a teoria das formas diferenciais e conceitos como o do produto exterior que generaliza o produto vetorial de vetores de \(\Bbb R^n\). Os tensores são usados em diversos outros campos de aplicação, em particular na mecânica do contínuo, na teoria de campos, na teoria da relatividade geral, na geração de imagens usadas para diagnósticos médicos, entre outras.

Geometria não Euclidiana

A Geometria não Euclidiana pode ser vista como resultado das tentativas, feitas desde a época de Proclo, de se provar o quinto postulado de Euclides como conseqüência dos demais postulados. A primeira tentativa feita nesta direção foi feita por Saccheri em 1733, e mais tarde retomado por Lambert em um questionamento da validade do quinto postulado. Muitos outros trabalhos se seguiram até sua florescência nas obras de Lobachevsky e Bolyai. Também Legendre trabalhou sobre este tema, mas foi incapaz de ir além dos conceitos puramente euclidianos.

Durante os últimos anos do século XVIII as doutrinas de Kant sobre o espaço absoluto e a necessidade dos postulados da geometria estavam em voga e foram submetidas a debates e questionamentos. Neste período, Gauss estava estudando o quinto postulado tendo influenciado Lobachevsky através de seu amigo Bartels, e Bolyai por meio de seu pai Wolfgang, um de seus antigos alunos. Por esta razão muitas vezes se afirmou que Gauss deveria ser considerado o fundador da geometria não euclidiana. No entanto, embora tendo realmente contribuído sobre o assunto, Gauss receava a opinião de seus pares e evitou colocar por escrito suas idéias a respeito.

Embora Lobachevsky tenha sido aluno de Bartels em torno de 1807, existem evidências de que ele não discutiu com o mestre o quinto postulado. Além disto suas pesquisas foram iniciadas antes que ele iniciasse sua relação com Bartels. Em 1826 Lobachevsky expôs os fundamentos de sua doutrina das paralelas, baseada na suposição de que mais de uma reta pode ser traçada por um ponto fora de uma reta no mesmo plano sem nunca a interceptar. A teoria foi publicada na totalidade em 1829-30, enquanto Lobachevsky continuou publicando sobre este tema e outros em matemática até a sua morte.

Johann Bolyai recebeu de seu pai, Wolfgang, parte da inspiração para seu trabalho. Aos vinte e um anos ele descobriu, no mesmo tempo que Lobachevsky, os princípios da geometria não euclidiana, e relata este fato em uma carta datada de novembro de 1823. A publicação completa de suas idéias aparece em artigo em 1832. Em comunicações com outros matemáticos, no período de 1831-32, Gauss assegura que havia desenvolvido uma teoria nas mesmas linhas que Lobachevsky e Bolyai, embora não a tenha publicado. Outro matemático, Schweikart, também explorou as possibilidades das geometrias obtidas através da flexibilização do quinto postulado e uma teoria das paralelas (1807), embora também não a tenha publicado.

A hipótese foi admitida gradualmente entre os pesquisadores da matemática. Em torno de 40 anos após sua publicação vários estudiosos trataram deste assunto, entre eles Riemann (1868), Helmholtz (1868), na Alemanha, Beltrami (1872) na Itália e Clifford na Inglaterra. A partir de 1880 a teoria estava amplamente aceita e considerada legítima.

O mais importante dos pesquisadores modernos nesta área foi Riemann. Ele aplicou os métodos da geometria analítica ao estudo da teoria e apresentou a sugestão de uma superfície de curvatura negativa constante, que Beltrami chamou de “pseudo-esfera”. Desta forma ele mostrou que a geometria de Euclides, com sua curvatura nula, é um caso intermediário entre sua pseudo-esfera e as superfícies de Lobachevsky. Enquanto Bolyai descreveu apenas duas geometrias, Riemann notou a existência de três, denominadas por Klein (1871) de geometrias elíptica (Riemann), parabólica (Euclides) e hiperbólica (Lobachevsky).

Variedades

Uma variedade é um conjunto de objetos que pode ser colocado localmente (i. e., na vizinhança de cada um de seus pontos) em correspondência biunívoca com \(\Bbb R^n\). Elas são espaços matemáticos abstratos que generalizam os conceitos de curvas e superfícies. Curvas planas ou espaciais podem ser localmente aproximadas por segmentos de retas, sendo por isto, variedades de dimensão 1. A superfície da Terra pode ser localmente aproximada por partes de um plano, sendo um exemplo de variedade de dimensão 2. É interessante lembrar que podem ser necessárias mais de uma aplicação (também chamada de parametrização) para cobrir toda a variedade. Se estas apliacações são diferenciáveis a variedade é dita diferenciável. As esferas, por exemplo, necessitam de pelo duas parametrizações para serem totalmente cobertas.

(18) Manifolds em inglês.

O estudo das variedades19 combina muitas áreas importantes da matemática, generalizando conceitos tais como curvas e superfícies de qalquer dimensão, envolvendo conceitos da álgebra linear e multilinear e da topologia. Existem variedades que exibem propriedades ou estruturas especiais, tais como as propriedades de um grupo, nas variedades de Lie. As variedades diferenciáveis são espaços onde as operações do cálculo diferencial e integral podem ser utilizadas.

Definição de Variedade

Gauss foi provavelmente o primeiro a considerar espaços abstratos como objetos matemáticos com méritos próprios e dignos de estudo. Seu Teorema Egrégio prova que a curvatura de uma superfície é uma propriedade intrínseca e não depende do espaço ambiente onde está localizada esta superfície, além de fornecer uma técnica para o cálculo destas curvaturas. A teoria das variedades trata das propriedades puramente intrínsecas de superfícies e suas generalizações, ignorando, em geral, o espaço ambiente, embora também seja tema de estudo a busca de espaços ambientes que possam conter os espaços intrínsecos, por meio das chamadas imersões.

As geometrias não-euclidianas estudadas por Saccheri, Lobachevsky, Bolyai e Riemann são casos particulares de variedades com curvaturas constantes nulas, positivas e negativas. Bernhard Riemann foi o primeiro a trabalhar sobre as generalizações de conceito de superfícies para hipersuperfícies de dimensões superiores a 2. Um exemplo de tais hipersuperfícies é a hiperesfera \(S^n\) de raio 1 definida por
$$S^n=\{(x_1, \ldots, x_n) \in R^{n+1}; \vert x_1 + \ldots + x_{n+1} \vert = 1 \}.$$

Definida desta forma a hiperesfera de dimensão \(n\) está naturalmente imersa em \(\Bbb R^{n+1}\).

O termo manifold foi utilizado por Riemann em seu trabalho original, em alemão Mannigfaltigkeit, traduzido por William Clifford como “manifoldness”. A palavra portuguesa variedade se deriva do francês variété, com o mesmo significado, o que mostra a forte influência recebida no Brasil pela escola francesa, em particular derivada dos trabalhos do grupo Bourbaki.

Em sua aula inaugural na Universidade de Göttingen, Riemann descreveu o conjunto de todos os possíveis valores de uma variável dentro de certas restrições, como Mannigfaltigkeit, pois a variável poderia assumir diversos valores. Ele fez uma distinção entre variedades discretas e contínuas, de acordo com os valores discretos ou contínuos assumidos por estas variáveis. Como um exemplo do caso contínuo ele se referiu a cores e posições, além de formas possíveis para um objeto no espaço. Usando indução Riemann construiu “uma variedade estendida \(n\) vezes, ou uma variedade n-dimensional” como um empilhamento de variedades de dimensão \(n-1\). Esta noção intuitiva de Riemann foi formalizada no conceito moderno de variedades.

Também no estudo das variáveis complexas o processo de continuação analítica leva à construção de variedades. Variedades abelianas já eram implicitamente conhecidas na época de Riemann enquanto o tratamento geométrico da mecânica lagrangeana e hamiltoniana também leva à construção natural de variedades. O uso das chamadas coordenadas generalizadas, tais como os ângulos envolvidos em movimentos pendulares e suas derivadas no tempo, levam a variedades de dimensões superiores às dimensões do espaço físico ordinário.

(19) A conjectura de Poincaré: Toda variedade 3-dimensional conexa e fechada (i.e. compacta e sem fronteira) é homeomórfica a uma 3-esfera.
(20) Muitos matemáticos concordam que Grigori Perelman respondeu corretamente esta questão, em 2006.

Henri Poincaré estudou variedades 3-dimensionais e levantou a pergunta hoje conhecida como conjectura de Poincaré19, que tem permanecido em aberto por quase um século, apesar do esforço de muitos matemáticos20. Hermann Weyl forneceu em 1912 a definição intrínseca de variedade diferenciável usada nos dias de hoje. Na década de 1930 Hassler Whitney e outros esclareceram os fundamentos da teoria e a desenvolveram usando os conceitos da geometria diferencial e dos grupos de Lie.

Álgebra

A álgebra pode ser dividida em clássica, que trata da solução de equações ou a procura de incógnitas, e abstrata, algumas vezes chamada de álgebra moderna, que consiste basicamente no estudo da teoria de grupos, anéis e campos. A álgebra clássica passou por um longo desenvolvimento, ao longo de pelo menos 4000 anos, enquanto a parte moderna é recente, tendo aparecido apenas nos últimos 200 anos.

Uma parte significativa da álgebra está associada à teoria dos números e o reconhecimento de novos conjuntos tais como os negativos e zero, os irracionais e os complexos. O desenvolvimento da notação, por sua vez, passou por fases distintas, como o período puramente verbal ou retórico, onde as sentenças e equações eram denotadas por meio de linguagem corrente, sem abreviações, o período sincopado, onde se passou a usar abreviações das palavras, e o período simbólico, em uso até os dias de hoje.

Os egípcios, segundo se depreende dos papiros de Ahmés (descobertos por Rhind), podiam resolver equações lineares com uma incógnita em torno de 1850 a.C.. Os problemas eram apresentados de forma retórica, sendo propostos e resolvidos verbalmente. O Papiro do Cairo (aproximadamente 300 a.C.) indicam a solução de problemas contendo duas incógnitas e duas equações do segundo grau. Compreende-se hoje que a álgebra egípcia ficou prejudicada pelo uso de um método pouco prático para se lidar com as frações.

Na Babilônia, no período de 1800 a 1600 a.C., a matemática se encontrava em estado mais avançado que no Egito. Eles desenvolveram um excelente sistema sexagesimal de numeração, o que permitia facilidade nas operações e o conseqüente desenvolvimento da álgebra e sabiam encontrar soluções para equações quadráticas, embora reconhecessem apenas uma das raízes que deveria ser positiva. Também sabiam lidar com sistemas de duas equações e duas incógnitas e existem evidências de que chegaram a tratar de alguns casos com um número superior de incógnitas e equações de grau maior que dois. Eles utilizam uma forma retórica de notação, como os egípcios, e chegaram a introduzir alguns símbolos como abreviações. Os procedimentos eram ensinados através de exemplos e nenhuma sistematização teórica ou sequer a idéia de demonstrações estava presente. Como os egípcios eles só reconheciam a existência de números positivos racionais apesar de terem encontrado, em alguns casos, soluções aproximadas para problemas que não admitiam soluções racionais.

O período grego clássico se distinguiu pelo rápido progresso na geometria. Os gregos não reconheciam a existência dos irracionais e evitavam esta limitação tratando de forma geométrica os problemas algébricos. Identidades algébricas e soluções de equações quadráticas eram expressas e resolvidas de forma gráfica. A grande conquista grega na matemática consistiu no estabelecimento de procedimentos gerais e na justificação de todas as afirmações por meio de demonstrações e raciocínio dedutivo, Apesar disto sua limitação na álgebra fez com que ela tivesse pouca aplicação prática e que seu progresso ficasse retardado por vários séculos.

Em um período posterior ocorreu entre os matemáticos gregos um movimento que os afastou da álgebra puramente geométrica. Este movimento incluiu pensadores tais como Arquimedes, Apolônio, Ptolomeu e Heron, muitos deles professores ou alunos da Escola de Alexandria. Entre eles se destacou o matemático Diofanto, no século III, verdadeiro precursor da moderna teoria dos números. Diofanto foi o primeiro a introduzir uma notação sincopada e parcialmente simbólica na solução dos problemas algébricos apesar de que, depois dele, o estilo retórico tenha permanecido em uso por vários séculos que se seguiram. Para indicar a soma de dois ou mais termos Diofanto simplesmente os escrevia em sucessão, sem qualquer sinal interposto. A subtração era indicada por uma abreviatura da palavra leípsis, que em grego significa “termo negativo” ou “menos”.

Diofanto forneceu soluções para duas ou mais equações contendo várias variáveis e possuindo um número infinito de soluções racionais – o que hoje conhecemos como equações Diofantinas. Seu trabalho despertou o interesse dos matemáticos árabes e através destes, chegou à Europa motivando matemáticos tais como Pierre de Fermat, no século XVII. Diofanto mostrou que a equação \(x^n + y^n = z^n\) admite inifintas soluções inteiras para \(n=2\). Fermat, ao retomar o problema, estabeleceu o famoso “último teorema de Fermat”, segundo o qual a equação não tem soluções inteiras para \(n\gt 2\).

Diofanto não possuía procedimentos gerais, resolvendo cada problema por um método diferente. Ele aceitava apenas raízes positivas e racionais e ignorava a existência das demais. Mesmo no caso de equações quadráticas que possuem duas raízes positivas racionais ele apresentava apenas uma solução e abandonava a segunda.

Os gregos foram sucedidos pelos hindus na história da matemática. A civilização na Índia é muito antiga possuindo registros matemáticos a partir, aproximadamente, de 800 a.C.. A matemática hindu recebeu grande impulso das conquistas gregas e foi fortemente impulsionada pela astronomia e astrologia. Em torno de 600 a.C. eles já possuíam um sistema de numeração decimal, reconhecendo o número zero como quantidade e marcador no sistema posicional. Os hindus introduziram os números negativos para representar débitos. O registro mais antigo de utilização dos negativos se deve a Brahmagupta, no século VII, enquanto Bhaskara, no século XII, reconheceu que um número positivo admite duas raízes quadradas. Bhaskara, que era matemático e astrônomo, escreveu o primeiro estudo empregando o sistema numérico decimal. Ele utilizava letras para designar quantidades desconhecidas e antecipou-se no uso da moderna convenção de sinais matemáticos.

Apesar de incluírem as raízes negativas e irracionais, os hindus não podiam resolver todas as equações do segundo grau por não conhecerem raízes de números negativos. Como sabemos hoje, para encontrar todas as n raízes de uma equação do n-ésimo grau, é necessário conhecer a álgebra dos complexos. No que diz respeito às equações indeterminadas os hindus fizeram avanços que superaram os de Diofante. Aryabhata, no século V obteve soluções inteiras para as equações do tipo \(ax \pm by =c\) usando um método equivalente ao método usado modernamente.

Nos séculos VII e VIII os árabes, unificados pela pregação de Maomé, estenderam suas conquistas desde a Índia, passando pela África e chegando até a Espanha. Em seguida, em um período de grandes progressos até o século XIV, eles se dedicaram às artes e a ciência tendo sido os responsáveis pela maior parte do progresso científico retomado depois pelo ocidente. Além disto foram os guardiões da cultura acumulada no período clássico, que consiste na duração das civilizações grega e romana, enquanto a Europa se encontrava na chamada Idade das Trevas.

Os árabes adotaram e aperfeiçoaram o sistema de numeração hindu, os símbolos e a notação posicional. O chamado sistema indo-arábico assim obtido e os algoritmos utilizados efetuar as operações, ambos em uso até os dias de hoje, foram transmitidos para a Europa em torno do início do século XIII. Da mesma forma que os hindus, os árabes sabiam operar livremente com os números irracionais, apesar de terem rejeitado os números negativos adotando uma atitude retrógrada, neste particular. Os árabes deram grandes contribuições no campo da álgebra, a começar pelo próprio nome. A palavra álgebra deriva do título de um livro, Hisab al-jabr w’al muqabala, traduzido como em geral como “Recuperação e Simplificação” ou “Transposição e Cancelamento”. O texto foi escrito no século IX pelo matemático e astrônomo Mohammed ibn-Musa al-Khowarizmi, nome que deu origem à palavra moderna algoritmo.

A álgebra árabe era inteiramente retórica. Eles sabiam encontrar raízes de equações quadráticas, inclusive irracionais, mas rejeitavam os números negativos. Omar Khayyam, século XI, um poeta e matemático fez contribuições importantes para a solução de equações cúbicas usando métodos geométricos que envolviam as interseções de cônicas.

Com o Renascimento e a recuperação das origens clássicas do século XVI em diante o zero passou a ser aceito como número e os irracionais eram amplamente usados, embora muitos matemáticos receassem que eles não fossem números verdadeiros. Também os negativos eram conhecidos mas não totalmente aceitos. Números complexos não haviam sido sequer imaginados. A aceitação completa dos sistemas numéricos e sua álgebra como hoje utilizados só foi completa no século XIX. O Renascimento marcou a redescoberta e ascensão da álgebra. Grandes avanços na técnica, em particular na solução de equações cúbicas e quárticas foram obtidas no século XVI, em particular com a obra de Cardano publicada em 1545, Ars Magna. Apesar de considerado o maior matemático de seu tempo Cardano ainda utilizava uma notação puramente retórica. Grandes esforços se seguiram para estender estas conquistas para equações polinomiais de grau superior a 4, esforços que não atingiram plenamente sua meta apesar de terem gerado, como efeitos indiretos, boa parte da matemática posterior. Este período assistiu também ao aperfeiçoamento do simbolismo, o que permitiu sistematizar e avançar o conhecimento sobre álgebra.

No que diz respeito ao simbolismo um representante importante foi Viète, um francês que viveu de 1540 até 1603. Ele foi o primeiro a usar letras para representar constantes conhecidas (ou parâmetros). Desta forma foi possível promover o estudo de casos gerais e estabelecer relações entre os coeficientes de um polinômio e suas raízes, na “teoria das equações”. Apesar dos avanços a álgebra de Viète era sincopada e não completamente simbólica, estágio só alcançado com La Géométrie de Descartes, em 1637. Com este trabalho se tornou disponível uma relação frutífera entre a geometria e a álgebra, o que hoje conhecemos como geometria analítica, desenvolvida simultaneamente por Fermat e Descartes.

Até o final do século XVII o uso de notação simbólica se tornou deliberado e generalizado. Surgiu a compreensão de que uma notação consistente e de fácil manipulação era uma ferramenta poderosa para a matemática. No entanto, mesmo nesta época, faltava à álgebra uma fundamentação lógica consistente, algo que se pudesse comparar com a sistematização de Euclides para a geometria.

Durante o século XIX os matemáticos britânicos assumiram a liderança no estudo da álgebra. A atenção se voltou para as diversas “álgebras”, o estudo de objetos matemáticos tais como vetores e matrizes, números complexos e quatérnions e transformações, e das várias operações que podem ser realizadas sobre estes objetos. O objeto de consideração da álgebra, desta forma, se expandiu para o estudo das formas e estruturas algébricas mais amplas e mais genéricas que os estudo dos sistemas números e suas operações. Provavelmente o rompimento mais significativo com o pensamento antigo se deu com o surgimento das álgebras não comutativas que ocorrem, por exemplo, entre as matrizes e os quatérnions estudados por Hamilton em 1843.

O inglês Peacock, (1791-1858) foi o fundador do pensamento axiomático na aritmética e na álgebra. DeMorgan (Inglaterra, 1806-1871) estendeu o trabalho de Peacock para considerar operações definidas com símbolos abstratos, enquanto Hamilton (Irlanda, 1805-1865) demonstrou que os números complexos podem ser expressos como uma álgebra formal, definida sobre pares de números reais. Por exemplo
$$(a,b)+(c,d)=(a+b,c+d);(a,b).(c,d)=(ac−bd,ad+bc).$$

Gibbs (EUA, 1839-1903) desenvolveu uma álgebra sobre vetores no espaço tridimensional e Cayley (Inglaterra, 1821-1895) fez o mesmo usando matrizes (uma álgebra não comutativa).

O conceito de grupo surgiu como conseqüência do trabalho de vários matemáticos. Provavelmente os passos iniciais mais importantes foram dados por Galois (França, 1811-1832). Usando o conceito de grupos Galois pode fornecer uma resposta definitiva para uma longa questão em aberto: que equações polinomiais podem se resolvidas por operações algébricas?

O conceito de corpo foi explicitado no trabalho de Dedekind em 1879. Peano (Itália, 1858-1932) criou um tratamento axiomático dos números naturais em 1889, mostrando que todos os outros conjuntos numéricos podem ser construídos de modo formal a partir do conjunto dos naturais. (“Deus criou os números naturais. Todo o resto é criação do homem.” – Kronecker)

A álgebra abstrata é um campo a matemática moderna ainda em franco desenvolvimento no século XXI, possuindo muitos problemas não resolvidos e extensas possibilidades de interação com outras áreas da matemática e de aplicações. Um exemplo disto é o extenso uso que se faz da teoria de grupos em física, particularmente na teoria de campos e relatividade geral.

Análise

A origem da análise matemática, levando-se em conta seu aspecto fundamentalmente crítico e formal, remonta a pouco mais de cem anos. Desde a invenção do cálculo, por Newton e Leibniz, se detectava a necessidade de se encontrar fundamentação mais sólida para os métodos ali estabelecidos. Os trabalhos pioneiros de Euler, Lagrange, Gauss, Abel e Cauchy marcaram o início da reformulação crítica do conhecimento matemático, caracterizada principalmente pela necessidade de deduções rigorosas do ponto de vista lógico, sem as induções e analogias até então muito comuns. A tendência a procurar formas puramente abstratas, sem apoio nas figuras geométricas ou nos objetos concretos, tornou-se dominante.

A importante noção de continuidade, por exemplo, estava sempre ligada a uma curva ou a uma superfície, e, como tal, mostrava-se bastante particular e vaga; definida em termos puramente algébricos, adquiriu precisão e generalidade, e pôde interpretar uma série de fatos e propriedades aparentemente paradoxais. Por exemplo: uma função unívoca pode ser representada por uma curva; sua derivada em um ponto é representada pela declividade da reta tangente à curva nesse ponto. Admitia-se como evidente que, desde que a função fosse contínua em um ponto, tinha ela uma derivada nesse ponto (porque a curva seria contínua e poder-se-ia traçar a tangente). Em 1854, Riemann descobriu uma função contínua que não tinha derivada em vários pontos. Pouco depois, Weierstrass apresentou uma função contínua que não tinha derivada em nenhum ponto de um determinado intervalo. Cantor e Dedekind, entre outros, descobriram muitas funções que apresentavam aparentes anormalidades. Essas descobertas mostraram que o raciocínio matemático deve libertar-se das intuições geométricas, por extremamente obscuras e complexas. Assim, a atenção dos investigadores que criaram a atual análise matemática voltou-se para a realização de uma completa crítica da estrutura dos princípios fundamentais e dos conceitos primitivos das teorias matemáticas.

Entre os conceitos básicos de toda matemática, um deles mereceu especial atenção: o de número, que vinha experimentando sucessivas ampliações à medida que se procuravam resolver os problemas propostos. Outro conceito que mereceu a atenção dos pesquisadores foi o de ordem, indissoluvelmente ligado ao de número, e que recebia semelhantes extensões. Os conceitos de função, de continuidade, de limite e de convergência, já tratados de maneira menos rigorosa por Euler e Lagrange, foram objeto de definições adequadas e rigorosas por parte de Cauchy (1822). Deve-se também a Cauchy outra importante contribuição à análise matemática: a teoria das funções analíticas, onde ele estendeu às funções de variáveis complexas as propriedades estudadas por Brook Taylor. O estudo das funções elípticas, iniciado por Abel, foi desenvolvido por Jacobi em seu Fundamenta nova theoriae functionum ellipticarum (1829; Novos fundamentos da teoria das funções elípticas).

A teoria dos números, iniciada por Gauss, foi continuada por Dirichlet, que estudou propriedades da sucessão dos números primos, empregando métodos infinitesimais, e introduziu a noção geral de função como correspondência entre dois conjuntos. Dirichlet formulou também o conceito de séries absolutamente convergentes e estabeleceu as condições precisas para que uma função possa ser desenvolvida em séries de Fourier. Outros estudiosos da teoria dos números foram Ernst Kummer e Leopold Kronecker, que desenvolveram as idéias propostas por Galois sobre corpos de números (conjuntos aos quais pertencem números e os resultados das operações que se fazem entre eles), que precederam a teoria dos grupos.

As equações integrais e o cálculo funcional, introduzidos por Vito Volterra e David Hilbert, entre outros, integram o panorama atual da análise matemática. A crescente complexidade do conhecimento matemático exige constante vigilância das estruturas básicas dos novos conceitos, dos novos algoritmos, das extensões dos conceitos antigos e de todas as questões ligadas a esses conceitos e algoritmos.

Também chamada cálculo combinatório, a análise combinatória estuda e conceitua os processos de formação, contagem e propriedade de agrupamentos que podem ser formados com um número finito de elementos dados e de natureza qualquer, segundo determinados critérios. Um agrupamento ou coordenação matemática classifica-se de acordo com a maneira como se reúnem seus elementos. Assim, a coordenação simples é aquela em que os elementos entram uma só vez na formação de cada grupo. Quando o elemento ou elementos entram várias vezes na formação do grupo, temos a coordenação com repetição. As letras \(a, b, c e d\), por exemplo, podem formar agrupamentos simples \((ab, ac, bc, abc, abcd)\) ou com repetição \((abcc, abbd, acdd, bd aac)\), etc. Além disso, dependendo do número de elementos de cada grupo, diz-se que os agrupamentos podem ser unitários \((a, b, c, d)\), binários \((ab, ac, bd)\), etc, terciários \((abc, bcd, bcc)\) e assim por diante. A análise combinatória é utilizada com muita freqüência no estudo do binômio de Newton e dos determinantes, na teoria dos números, no cálculo das probabilidades etc.

As tentativas de solução das equações da física matemática deram origem à chamada análise funcional. Essas equações, classificadas como equações diferenciais ordinárias, equações de derivadas parciais e equações integrais, têm como incógnitas uma função, isto é, seus espaços de soluções são espaços funcionais, conjuntos cujos elementos são funções. Atualmente, a análise funcional linear, ou simplesmente análise funcional, é entendida como a teoria geral dos operadores lineares sobre espaços funcionais. Quando os operadores são não-lineares, obtém-se a denominada análise funcional não-linear, de resultados recentes e esparsos, mas de extrema importância por suas aplicações a problemas de dificílima solução.

Como exemplo característico da utilidade da análise funcional nos diversos setores da matemática aplicada, cita-se a teoria das aproximações, que engloba os resultados mais significativos da análise numérica e que é uma conseqüência direta de teoremas gerais da análise funcional.

Fenômenos periódicos relativamente complicados podem ser estudados por meio de componentes mais simples e do mesmo tipo, denominados harmônicos. A análise harmônica estuda a forma de determinar as características dos harmônicos de modo a representar, da melhor maneira possível, um fenômeno físico original. É aplicada em vários campos distintos do conhecimento humano. No domínio da acústica, por exemplo, pode-se, com o uso de um microfone, transformar vibrações sonoras em ondas elétricas que podem ser vistas na tela de um osciloscópio com a forma de uma curva, que depende da qualidade do som. Devido a sua periodicidade, ela pode ser decomposta em uma freqüência fundamental e seus harmônicos.

No domínio da engenharia eletrônica, vários exemplos importantes podem ser citados. A não-linearidade em um amplificador provoca o aparecimento de harmônicos, que alteram a qualidade do sinal a ser amplificado. O processo de funcionamento dos aparelhos de rádio depende também da existência de harmônicos. No campo da distribuição da energia elétrica, a formação de um terceiro harmônico em transformadores trifásicos (decorrente da não-linearidade do núcleo do transformador) pode provocar aquecimento indesejável. Na engenharia mecânica, pode ser usada em estudo de vibrações mecânicas. Até mesmo na medicina encontram-se exemplos de sua aplicação, tais como os encefalogramas.

No estudo dos métodos para obtenção de soluções quantitativas de problemas formulados matematicamente, de modo a permitir sua utilização prática, usa-se a análise numérica. Ela se aplica também ao estudo da propagação de erros. A análise numérica está associada a atividades ligadas à computação e compreende problemas díspares como a reserva automática de passagens de uma companhia de aviação, a elaboração de balanços e folhas de pagamento, o controle de estoques e a realização de diagnósticos médicos. Com efeito, foi a existência dos computadores digitais – capazes de efetuar, em alguns casos, mais de um milhão de operações aritméticas por segundo – que permitiu que muitos métodos numéricos se tornassem de emprego corrente.

O objetivo final da pesquisa científica é a interpretação e previsão dos fenômenos. Para isso, pode ser usada a análise estatística, cujos modelos matemáticos se baseiam na teoria das probabilidades. A aplicação desses modelos matemáticos a fenômenos estatísticos pode também ter em vista fins puramente descritivos, como, por exemplo, quando se pretende estudar as características de um conjunto de dados extraídos de um universo particular, usualmente denominado população, de forma simples e concisa. Nesse caso, os dados são transcritos para uma tabela estatística e representados graficamente. Finalmente, calculam-se as sínteses numéricas, que são as características descritivas do conjunto estudado (média, desvio padrão etc.).

Na maioria dos casos, porém, o objetivo final da investigação estatística não será de natureza puramente descritiva, como é o caso de dados obtidos de amostras, por meio dos quais se estimam as características da população total. A descrição dos elementos observados na amostra constitui, assim, uma fase preliminar da pesquisa, à qual se segue a aplicação da teoria estatística para fins de análise e previsão.

Fundamentos da Matemática

O estudo dos fundamentos da matemática trata de conceitos matemáticos básicos que não podem ser eles mesmos explicados por recursos matemáticos. Especialmente no século XX, as pesquisas sobre os fundamentos da matemática passaram a incluir uma investigação sobre a natureza das teorias matemáticas e o campo de ação dos métodos por ela empregados.

Uma abordagem frequente para este estudo está baseada sobre o método axiomático, cuja origem, segundo se acredita, se encontra nos Elementos de Euclides, onde há axiomas (verdades evidentes) e postulados (fatos geométricos óbvios, cuja validade pode ser admitida sem discussão). O método axiomático consiste em escolher um conjunto de axiomas como fundamentais e, a partir deles, deduzir proposições chamadas teoremas, que podem ser demonstradas.

Em 1888 e 1889, Richard Dedekind e Giuseppe Peano lançaram as bases para a axiomatização da teoria dos números e, desde então, o método axiomático passou a ser empregado em matemática cada vez com maior freqüência. A teoria dos conjuntos foi axiomatizada pela primeira vez em 1908, e quase todos os ramos receberam tratamento análogo. A moderna matemática mostrou que é possível deduzir todo um corpo doutrinário a partir dos mesmos postulados, sem discutir o significado dos termos empregados. Essa nova atitude partiu principalmente de Moritz Pasch e David Hilbert, que publicou, em 1899, Grundlagen der Geometrie (Fundamentos da geometria), em que estuda criticamente o sistema axiomático de Euclides.

A criação dos diferentes sistemas de numeração e as constantes extensões experimentadas pelo conceito de número caracterizam outra maneira de elaborar uma teoria matemática. É o método que Hilbert chamou de “método genético”. Seus elementos são gerados ou constituídos numa ordem definida, a partir de uma noção inicial e pela extensão de seu significado a novos campos de definição. A obtenção dos resultados é feita por indução, em várias etapas: (1) comprovação da hipótese para um elemento do conjunto; (2) suposição de que a hipótese é verdadeira para um elemento qualquer do conjunto; e (3) demonstração de que o elemento seguinte ao anterior, segundo uma relação de ordem previamente estabelecida no conjunto, também apresenta a propriedade desejada.

O raciocínio dedutivo, assim como o método axiomático, é empregado para obter propriedades novas a partir de noções triviais, que podem ser tomadas como postulados. Como exemplo disso, utiliza-se a sucessão de números naturais: 1, 2, 3… quando se contam objetos que formam um conjunto. Todos os elementos dessa sucessão são gerados a partir do primeiro elemento, por meio de apenas uma operação fundamental de contagem, que permite passar do objeto anterior para o posterior pelo acréscimo de uma unidade.

A exatidão de uma propriedade pode ser demonstrada pela premissa segundo a qual, se ela for verdadeira para n elementos, também será para n + 1. Basta demonstrar que ela é verdadeira para o primeiro elemento, uma vez que, em função da demonstração anterior, será verdadeira para todos os demais. Esse recurso, chamado “método da indução”, foi apresentado pela primeira vez no século XVI por Francesco Maurolico. Segundo Henri Poincaré, esse é o método por excelência do raciocínio matemático.

Em 1889, Peano apresentou um conjunto de propriedades imediatas que deveriam ser tomadas como postulados e, a partir delas, construiu a teoria axiomática dos números. A noção de número natural surgiu da necessidade de comparar duas coleções de objetos e é conhecida mesmo entre as tribos que vivem em estágios primitivos. As primeiras operações aritméticas evoluíram a partir das comparações entre diferentes conjuntos de objetos.

No início do século XX, surgiram três escolas de pensamento, denominadas logicismo, formalismo e intuicionismo, para solucionar uma crise nos fundamentos da matemática: existia entre os matemáticos um profundo desconhecimento sobre os conceitos básicos e os métodos utilizados para chegar aos resultados em seus estudos.

De acordo com o logicismo, cujo principal representante foi Bertrand Russell, a matemática deriva de um conjunto de princípios lógicos básicos e investiga um domínio de entes abstratos (como pontos, números e conjuntos) que existem independentemente do investigador, de tal forma que qualquer noção matemática pode reduzir-se à idéia de propriedade abstrata. Para os logicistas, é possível deduzir toda a matemática a partir da lógica pura, sem necessidade de empregar conceitos matemáticos específicos, como número ou conjunto.

O formalismo, defendido por David Hilbert, admite que a matemática se compõe de símbolos manipulados independentemente de seu significado, segundo regras definidas para combinação e transformação. Hilbert pretendia mostrar que os processos usuais de demonstração não davam margem a paradoxos e eram concretos e suficientes para erigir toda a matemática a partir de alguns axiomas. Para ele, a consistência da matemática não pode ser posta em dúvida. Seu programa envolve duas etapas: a elaboração de um sistema formal de cujos axiomas se deduz, com regras de inferência explicitamente relacionadas, pelo menos a parte básica da matemática; e a constatação de que o uso de tais regras, aplicadas aos axiomas, não pode levar a contradições.

O intuicionismo, cujo principal teórico foi o holandês Luitzen Brouwer, é uma forma de conceber a matemática como atividade intelectual consistente por si mesma, que lida com construções mentais governadas por leis autoevidentes. Para os intuicionistas, todo ente matemático admissível deve ser construído, ou, pelo menos, a possibilidade de executar a construção num determinado número de passos deve ser provada.

Em 1930, as três escolas conviviam, sem que nenhuma delas se destacasse mais do que as outras. Trinta anos depois, as divergências entre as três correntes, que agora não eram mais as únicas, haviam-se reduzido a uma simples questão de opção. Entre as novas correntes estavam o logicismo pluralista, de H. Mehlberg e Rudolf Carnap; os estudos lógicos de Wittgenstein; a teoria do grupo Nicolas Bourbaki e o formalismo construtivista de Goodstein.

Bibliografia

  • Ávila, Geraldo : Cálculo, Funções de uma Variável (vol. 2) LTC, Rio de Janeiro, 1989.
  • Boyer, Carl: História da Matemática, Edgard Blucher, São Paulo, 1996.
  • Courant, R; Robbins H.: O Que é a Matemática?, Ciência Moderna, Rio de Janeiro 2000.
  • Eves, Howard: Introdução à História da Matemática, Editora Unicamp, Campinas1990.
  • Russel, B.: História do Pensamento Ocidental, Ediouro, Rio de Janeiro, 2001.
  • Smith, D. E.: History of Modern Mathematics, Mathematical Monographs No. 1, Project Gutenberg, 1906.

Matemática na Grécia Antiga



Preliminares Históricos

A Matemática é mais antiga que a civilização. Existem registros muito antigos de contagem por meio de riscos em pedaços de ossos, pedras e moldes de barro originados de uma época em que os agrupamentos humanos eram nômades e não possuíam a palavra escrita. O início da civilização ocorreu no Período Neolítico na Mesopotâmia, na região entre os rios Tigres e Eufrates onde hoje se encontra o Iraque, e no Egito, quando teve início um processo de desertificação das savanas. Os agrupamentos humanos foram forçados a abandonar a vida nômade e se fixar em aldeias em torno das bacias dos grandes rios e a desenvolver tecnologias para aumentar sua eficiência na produção de alimentos e utensílios de uso geral. Para isto tiveram que irrigar as terras cultiváveis e garantir o fornecimento de água potável. Devido ao acúmulo de habitantes sobre uma área limitada tiveram também que construir um sistema de esgotos. A necessidade de previsão das estações férteis exigiu a construção de calendários que, por sua vez, demandava conhecimentos de astronomia. Para tudo isto foi necessário o desenvolvimento da palavra escrita e da matemática. A história da Matemática se inicia com os processos de contagem de objetos e da passagem do tempo, com a aplicação deste conhecimento nas plantações e criação de animais, na construção das cidades, de ferramentas, na fabricação de tecidos e na aplicação sobre a arte. A necessidade de reproduzir em rituais religiosos a saga mitológica de cada cultura também contribuiu para a evolução da matemática, particularmente em seus aspectos teóricos.

(1) Também chamado papiro de Rhind, um antiquário escocês que adquiriu o papiro em 1858.

Os fundamentos antigos da matemática são encontrados em papiros egípcios e tabletes de barro cozido com a escrita cuneiforme dos vários povos que floresceram na Mesopotâmia, entre eles os babilônios. Estes documentos indicam um conhecimento básico de Aritmética, Álgebra, Geometria e até mesmo de Trigonometria. O papiro de Ahmés(1) (~1750 a.C.) revela o uso de um sistema de numeração decimal no Egito, onde a unidade era representada por uma linha simples e as primeiras potências de dez possuíam símbolos hieroglíficos próprios. A aritmética era realizada basicamente por adições simples e algumas frações, especialmente as frações unitárias, sob a forma de \(\frac{1}{n}\), eram conhecidas e tabeladas. Na álgebra eram utilizadas equações lineares contendo uma incógnita que era então representada por uma palavra e não por um símbolo.

(2) Também as civilizações chinesa e hindu contribuíram para o progresso do pensamento grego, exercendo, no entanto, menor influência devido às dificuldades de contato comercial e cultural.
(3) Um axioma é um princípio básico considerado verdadeiro sem a necessidade de provas ou demonstrações. O uso de axiomas na matemática teve origem na Grécia, em torno do século V a.C., e representa um passo fundamental para o estabelecimento desta disciplina. Os axiomas que formam a base de qualquer sistema de pensamento devem ser autocoerentes, não devendo levar a contradições internas. Além disto devem ser reduzidos em número e independentes, no sentido de não poderem ser deriváveis um do outro.
(4) A prova matemática é uma argumentação destinada a estabelecer a veracidade de uma afirmação ou teorema. Ela se inicia geralmente com as premissas consideradas corretas, em geral demonstradas previamente ou axiomas, e condições sobre as quais o teorema ou afirmação é suposto válido. Em seguida, usando as regras da lógica, se mostra que as conclusões decorrem das premissas ou não estão em desacordo com elas, devendo ser, portanto, igualmente verdadeiras.

A aritmética babilônica, por sua vez, era baseada em um sistema sexagesimal de numeração, o que deixou uma herança até os dias de hoje no uso de sistemas de base 60, por exemplo, na contagem de ângulos e do tempo. Os babilônicos do período de Hammurabi (~1950 a.C.) possuíam uma álgebra suficientemente desenvolvida para o tratamento de equações quadráticas e até mesmo algumas formas simples de equações cúbicas. Existem tabletes cuneiformes de períodos posteriores (~600 a.C. até 300 d.C.) que mostram a existência de tabelas para o cálculo da multiplicação, recíprocos e raízes quadradas, que eram geralmente empregados para o estudo da astronomia. No entanto, nem os babilônicos nem os egípcios possuíam as noções de fundamentação lógica e formal do pensamento matemático(2).

Um passo de fundamental importância para o desenvolvimento da matemática, como hoje a entendemos, foi dado durante o período grego. Grande parte dos fundamentos culturais da civilização moderna foi por eles estabelecida, particularmente nos campos do pensamento filosófico, científico e matemático. A eles se deve a fundamentação da disciplina por meio de axiomas(3) e a construção progressiva de conclusões por meio do pensamento lógico-dedutivo, as provas ou demonstrações(4). As formas e estratégias aceitas para a construção de provas matemáticas evoluíram através do tempo, tendo sido, em grande parte, propostas pelos pensadores gregos.

Um exemplo interessante deste desenvolvimento pode ser observado no uso e aceitação do teorema de Pitágoras que, na verdade, era conhecido de outros povos anteriores aos gregos, em particular os Mesopotâmios. Estes povos utilizavam o teorema e o consideravam correto porque verificavam a concordância entre o predito e o observado em situações práticas. Além de desconhecer a noção de provas eles também não percebiam a diferença entre resultados exatos e resultados aproximados que, embora úteis para o uso em aplicações, não representam grande progresso teórico. Como exemplo podemos citar o cálculo da área de um disco de raio \(r\), considerado como \(A=(3+1/6)r^2\). Os gregos foram os primeiros a compreender que a observação cotidiana não pode servir como prova final da veracidade de uma afirmação matemática.

Um Pouco de História da Grécia

Grécia Antiga é a denominação comum para um conjunto de cidades-estados independentes que se desenvolveram na bacia do mar Egeu até o mar Jônio que se formaram em torno de 2800 a.C., aproximadamente na mesma época em que estavam sendo construídas as pirâmides egípcias. No primeiro período, durante a chamada Idade do Bronze, em torno do terceiro milênio a.C. até o fim do período micênico (~1100 a.C.), os gregos eram basicamente uma população rural pacífica, formada por criadores de gado e agricultores. O grande número de ilhas e a geografia do continente, em forma de península, acabaram por facilitar a expansão do comércio marítimo com os povos da costa do Mediterrâneo e, com isto, a busca por tecnologia e integração cultural entre os povos da região, os europeus ao norte e os asiáticos a leste.

Figura 1: Mapa da Grécia

Por volta de 2600 a.C. houve uma invasão de povos de origem asiática que viviam ao norte e eram hábeis ferreiros, agricultores e navegadores. Aproximadamente seis séculos depois tribos indo-européias invadiram a península destruindo a sociedade então existente. Estes invasores, apesar de terem derrotado os habitantes da península, aprenderam com os derrotados parte de sua técnica e cultura e introduziram novos elementos, tais como a construção de cidades sob a forma de complexos fortificados. Mais tarde, em torno de 1600 a.C., os povos do continente se misturaram com um agrupamento humano que já se desenvolvia na ilha de Creta ocasionando o surgimento da chamada cultura micênica. Uma característica marcante deste período são as cidades formadas por grandes edifícios e que abrigavam uma grande população. Eles eram um povo guerreiro, interessado no comércio e nas artes e possuidores de notável conhecimento sobre arquitetura e construção de armas.

No início do século XII a.C. ocorreu uma nova invasão, desta vez promovida pelo povo dório, também de origem asiática, que migrou para a Grécia e fez sucumbir a civilização micênica. Os dórios eram guerreiros rudes e os 300 anos de seu domínio ficaram conhecidos como uma idade das trevas gregas, durante o qual houve pouco progresso nas artes e na ciência. Mais uma vez a cultura pré-existente sobreviveu à invasão violenta e, gradualmente, os dórios assimilaram dos antigos habitantes remanescentes parte de sua tradição e conhecimentos. Neste período surgiram uma língua e uma religião comuns e foi implantado o culto aos deuses do Olimpo. Para apaziguar as lutas entre as cidades e promover a união entre elas foram criados os festivais religiosos e disputas atléticas entre as cidades. Entre estes estavam os Jogos Olímpicos realizados a cada quatro anos em Olímpia, em homenagem a Zeus e Hera, iniciados em 776 a.C.. Nesta época os gregos adotaram o alfabeto fenício, abandonando os hieróglifos, o que tornou mais acessível o aprendizado da palavra escrita e facilitou a expressão de conceitos filosóficos.

Os gregos continuaram, no entanto, a viver sob o temor de novas invasões de povos diversos vindos do norte e do oriente. Isto fez com que os habitantes se agrupassem em torno de aldeias que cresceram até se tornarem as grandes cidades-estados, sendo as principais delas Atenas, Esparta, Tebas, Corinto e Argos. Em torno de 800 a.C. estas cidades adotaram um padrão arquitetônico comum, formado por uma fortaleza, a acrópole, cercada de muros altos que poderia servir de abrigo am caso de invasões. Abaixo da acrópole se encontravam o mercado, a ágora, e as áreas residenciais. Apesar da identidade cultural destas cidades, da tradição, língua e dos inúmeros esforços feitos nesta direção por alguns dirigentes, as cidades nunca foram unificadas sob uma mesma nação. Inúmeras guerras foram travadas entre as diversas cidades-estados, mas era raro que uma das cidades conseguisse anexar a outra. No entanto muitos indivíduos derrotados em batalhas eram tomados como escravos, o que favoreceu o surgimento do ócio, do tempo livre para o debate sobre temas de interesse comum tais como temas de interesse do cidadão e do pensamento filosófico.

A partir do século V a.C. os gregos começaram a formar colônias fora do continente, expandindo sua civilização em direção à Ásia, em torno do Mar Negro, França, Espanha e norte da África. Cidadãos de Atenas fundaram as primeiras colônias onde hoje se encontra a Turquia. Os cidadãos jônicos, residentes nestas colônias, se consideravam gregos e nunca perderam o contato com o continente. Foram eles os criadores do alfabeto grego e os principais responsáveis pela formação da literatura e filosofia gregas. Um importante elemento de fixação dos conceitos mitológicos foram os poemas de Homero, a Ilíada e a Odisséia, baseados na guerra de Tróia e nas viagens de Ulisses. Tales de Mileto foi então considerado o primeiro grande filósofo grego. Também nessa época viveu, no continente, Hesíodo o escritor de A Teogonia e O Trabalho e os Dias, importantes registros da tradição mitológica e religiosa antiga.

Durante o chamado período clássico, no século V a.C., o continente foi invadido duas vezes pelos persas, que provocaram grande devastação. A guerra contra os persas fez com que as duas cidades mais poderosas, Atenas e Esparta, superassem suas divergências e se unissem contra o inimigo comum. Após sucessivas derrotas uma confederação de cidades gregas pôde finalmente rechaçar o inimigo persa, em 479 a.C., principalmente devido ao poderio grego em forças navais. Os gregos atribuíram sua vitória a seu amor pela liberdade, o que representou um forte estímulo à criatividade e unificação dos povos vencedores. Os gregos do período clássico se autodenominavam helenos chamando de Hélade o seu país. O nome Grécia foi usado pelos romanos que atribuíram a toda região o nome da primeira tribo que encontraram no continente.

As principais cidades-estados, Atenas e Esparta possuíam formas de governo e na cultura bastante diversos durante este período o que resultou em inúmeros conflitos. Esparta havia adotado um regime autoritário e militarista, incluindo o treinamento militar na formação de seus cidadãos mais jovens, enquanto Atenas vivia em regime democrático onde os cidadãos, ricos ou pobres, podiam participar na elaboração das leis e na direção da cidade. Atenas experimentou grande progresso durante o governo de Péricles, de 460 a 429 a.C., se transformando no centro político, econômica e cultural do mundo grego. A democracia reduziu os privilégios da aristocracia enquanto a vontade popular era livremente expressa nas assembléias. No entanto, apesar de seus esforços, Péricles não conseguiu unificar sob uma mesma bandeira os vários povos helênicos.

Gradualmente, após a vitória sobre os persas, as cidades se lançaram em divisões e conflitos internos que enfraqueceram a Grécia progressivamente. Após algum tempo o campo estava devastado e os pequenos proprietários rurais tendiam a desaparecer. Mercenários assolavam o campo e as cidades. A economia estava estagnada enquanto os menos favorecidos esperavam a assistência do estado. Nesta época surgiu entre os intelectuais, Platão, Isócrates e Xenofonte entre eles, a idéia da unificação grega sob a liderança de um líder carismático. Alexandre o Grande (356-323 a.C.) se propôs unificar sob seu poder todo o mundo civilizado. Para realizar este feito ele iniciou a conquista das cidades gregas e, em seguida, se lançou à conquista da Pérsia, atravessando a Ásia e estendendo seus domínios até a Índia.

O projeto de conquista promovido por Alexandre resultou na expansão da civilização grega para a Pérsia, Síria, Índia e Egito, dando origem à chamada civilização helenística. Esta ampliação dos limites de influência grega fez com que, mesmo depois de ter a Grécia perdido seu poder e independência política, sua língua e cultura ainda continuaram a influenciar toda a formação do mundo moderno. Após a morte de Alexandre na Babilônia em 323 a.C. as coligações gregas foram novamente dissolvidas e o país arrastado para novas guerras. Com isso, o império se dividiu apesar das inúmeras tentativas de novas reunificações, até a intervenção final e a ocupação do território pelos romanos.

As primeiras relações dos romanos com as cidades gregas foram amistosas. No entanto, em 215 a.C. Roma resolveu intervir militarmente em conflitos gregos internos. Os romanos seguiram a princípio uma política de prudência devolvendo a autonomia às cidades gregas. A partir de 146 a.C., porém, a Grécia foi submetida definitivamente ao domínio da república. Os romanos, apesar da dominação militar e política, sempre apreciaram a cultura grega e a cultivaram. O Império Romano que por um muito tempo dominou a maior parte do mundo conhecido, não promoveu grande aprimoramento das ciências e da matemática. No entanto eles assimilaram a cultura e a religião grega e a transmitiram para o restante do mundo.

A partir do século V d.C. a parte oriental do Império Romano se tornou relativamente independente de Roma, adotando como capital a cidade de Constantinopla ou Bizâncio. Eles adotaram a língua, a formação cultural e tradições gregas o que garantiu a transmissão deste legado cultural à Rússia e aos povos eslavos. O império bizantino se manteve durante toda a Idade Média até a tomada de Constantinopla pelos turcos otomanos em 1453. Com a queda do império os sábios bizantinos se refugiaram na Itália, contribuindo para a renovação do conhecimento sobre o pensamento grego clássico e a tradição jurídica romana no período conhecido como Renascimento, que então florescia no Ocidente. Vale lembrar que durante a Idade Média na Europa a maior parte dos textos clássicos, gregos e romanos, haviam sido destruídos pela intolerância e o fanatismo então reinantes.

(5) O conceito de democracia na Grécia era bastante diferente do que hoje possuímos. Grande parte do trabalho braçal era executada por escravos, em geral soldados derrotados nas guerras. As mulheres não participavam das decisões coletivas e nem podiam competir ou sequer assistir aos jogos olímpicos.
(6) O juramento de Hipócrates, que resume sua ética, é ainda hoje recitado nas colações de grau de estudantes de medicina.

O surgimento da democracia(5) foi essencial para o estímulo às ciências, matemática, artes e filosofia. As assembléias eram muitas vezes realizadas em praças públicas. As primeiras idéias filosóficas foram estabelecidas através da discussão sobre o mito primitivo, o que influenciou fortemente o caráter da filosofia. Ainda em resposta às tradições mitológicas e religiosas surgiu o teatro e a sátira, quase sempre atacando, ironizando ou simplesmente reformulando conceitos antes considerados intocáveis. Um exemplo importante desta tendência foi representado por Hipócrates (~460 a.C. – 377 a.C.) que se recusou a aceitar as interpretações mágicas e religiosas para as doenças aceitas na época, favorecendo a análise do organismo e a observação para a obtenção do conhecimento médico(6).

Origens arcaicas do pensamento científico

(7) A Homero (850 a.C.) atribui-se as obras Ilíada e Odisséia. Hesíodo (~800 a.C.) escreveu A Teogonia, um relato da formação dos deuses e do universo, e O Trabalho e os Dias, voltada para a descrição da formação da humanidade e a explicação da estrutura social entre os homens.

Assim como outros aspectos de sua cultura, a religião grega influiu de forma duradoura sobre as tradições religiosas posteriores e sobre o pensamento filosófico e científico. Em sua fase mais antiga, em um período anterior à palavra escrita, a tradição era transmitida pelos Aedos, sábios, profetas e curandeiros, que guardavam de memória os relatos contados por seus antepassados sobre a origem do universo, a criação do ser humano, seu objetivo e destino final. As narrativas escritas mais antigas hoje disponíveis, os textos de Homero e Hesíodo(7) são, em grande medida, uma coletânea destes relatos. Segundo Hesíodo no início dos tempos, antes que qualquer outra coisa existisse, havia o Caos, palavra geralmente traduzida como abismo ou hiato.

“Primeiro que tudo houve o Caos. Depois veio a Terra de amplos seios e Eros, o mais belo entre os deuses imortais. Do Caos nascem Érebo e a negra noite. Da Noite nascem Éter e o Dia. A Terra gera primeiro o Céu Constelado para que a cobrisse e fosse para sempre a mansão segura dos deuses. Depois gera as Montanhas e o Mar. …”

Tradução livre e abreviada de Cornford.

Da Terra (Gaia) nasceu Urano, o Céu, que contraiu matrimônio com sua mãe. Eles geraram os Titãs que foram escondidos pelo pai no ventre de Gaia. Entre eles Cronos se rebelou contra Urano e, depois de castrá-lo, passou a governar o universo. Posteriormente Cronos é destronado por seu filho Zeus, o fundador do panteão helênico clássico e governante do Olimpo.

Outras variantes para explicar a ordem atual das coisas podem ser obtidas de outras fontes, como por exemplo, na tradição órfica, uma das fortes influências do pensamento pitagórico. Em todos eles, entretanto, se pode encontrar um elemento comum: a origem em um princípio único, o “Indeterminado” de Anaximandro, ou o “Ovo Órfico”, mais arcaico, um elemento de difícil ou impossível apreensão pelo intelecto humano, com potencial de geração da polaridade ou oposição básica, tais como o Céu e a Terra (Urano e Gaia) de Hesíodo, ou o ar (frio) e o fogo (quente), capazes, por sua vez, de gerar pela sua interação a multiplicidade das coisas que existem. As novas gerações de Deuses suplantam e derrotam as gerações anteriores, instalando uma nova ordem no universo. Aos poucos a religião adquiriu sua característica de politeísmo antropomórfico onde os deuses eram movidos por interesses bem mundanos, pouco diferentes dos humanos ordinários.

O culto a Dionísio se firmou no continente por volta do século VIII a.C.. Nele se realizavam festejos e representações que buscavam celebrar e reconstituir a ordem cósmica, a origem do universo e do ser humano, e seu destino. Estes festejos deram origem, mais tarde, à representação teatral. Desenvolveram-se nos séculos seguintes os chamados mistérios de Elêusis, em torno de Deméter, símbolo da vida que se recolhe no inverno e renasce na primavera. O templo dedicado a Apolo, onde se encontrava o oráculo de Delfos, transformou-se no centro espiritual da Grécia. As consultas ao oráculo motivaram, muitas vezes, aprimoramentos do pensamento filosófico, científico e matemático.

No período helenístico, após as conquistas de Alexandre o Grande, houve um grande intercâmbio entre as culturas e mitologias de vários povos. Isto promoveu um sincretismo pacífico com o conseqüente aperfeiçoamento do pensamento grego e a sua difusão pelo resto do mundo.

Na visão grega o ser humano é “o centro do universo e a medida de todas as coisas”. Ele é composto de corpo e alma sendo que a alma é preexistente à formação do corpo. Em diversas vertentes a alma possui origem divina ou celeste e se encontra aprisionada à terra por meio do corpo. A contemplação da verdade, o amor à filosofia e ao belo são os elementos restauradores da liberdade perdida. Ao morrer a alma desce em forma de sombra para o reino de Hades onde são julgadas e, se condenadas, enviadas para o castigo no Tártaro. Caso contrário poderão desfrutar da bem-aventurança nos Campos Elísios.

(8) O teatro grego é considerado o modelo original do teatro no Ocidente e teve raízes em rituais tais como o culto de Dionísio. Restam hoje peças completas de Ésquilo (~526-456 a.C.), Eurípides (~484-406 a.C.) e Sófocles (~495-406 a.C.).
(9) No entanto, o processo de inteira libertação da crença de um deus que se envolve constante e pessoalmente no funcionamento do universo, por exemplo, no movimento dos astros, persiste até depois de Isaac Newton no século XVIII.

O surgimento da visão democrática e o despertar da liberdade de pensamento permitiram que os pensadores iniciassem uma crítica do pensamento arcaico, reformulando-o por pontos, procurando explicar de forma racional um aspecto ou outro da descrição antiga de mundo. Esta tendência surge, por exemplo, no teatro(8), onde as idéias mitológicas são expostas à crítica e até mesmo ao deboche e, mais tarde, no pensamento filosófico e científico.

O pensamento mitológico arcaico é uma tentativa de explicação do mundo. A reforma do pensamento primitivo é realizada gradualmente e cada novo avanço do pensamento se baseia na visão prévia do mundo, reformulando alguns aspectos e mantendo outros. A ênfase do relato mítico na origem única de todas as coisas se propaga para dentro da filosofia através do debate sobre o princípio essencial, travado entre os pré-socráticos, e exerce influência poderosa sobre o pensamento posterior até a modernidade. De certa forma a liberdade para pensar consiste em um rompimento com o substrato mitológico e religioso. O medo humano da interferência arbitrária de um deus em sua vida e no cosmos, e a prestação de contas na vida após a morte é impeditivo da investigação. É improvável que um grupo de pensadores, em qualquer época, procure explicações científicas para os fenômenos naturais se a crença em uma intervenção divina arbitrária é predominante. Um universo sem regularidade e movido por interesses arbitrários dos deuses não pode ser alvo de discussão científica(9).

Um das contribuições gregas para este processo consiste na crença de que o ser humano partilha com o universo o nous, a capacidade pensante, e, por isto, pode compreender o que nele ocorre. O pensamento religioso floresceu na Grécia até o fechamento das escolas pagãs pelo imperador bizantino Justiniano, no ano 529 da era cristã.

Pensadores pré-socráticos

Os pensadores que antecederam Sócrates foram responsáveis pela fundação do pensamento filosófico, científico e matemático e vão desde a escola de Mileto, no século VI a.C, até os sofistas do século V a.C.. Muitos deles viveram nas colônias gregas em Mileto, Samos e Eléia, entre outras. Entre os pré-socráticos destacam-se Tales, Pitágoras, Heráclito, Parmênides, Empédocles, Anaxágoras e Demócrito.

Tales de Mileto (624 a.C. – 547 a.C.)

Tales é considerado por muitos pensadores como sendo o primeiro filósofo, cientista e matemático. Ele foi o fundador da Escola Jônica que teve como estudantes Anaximandro e Anaxímenes. Nenhum dos escritos de Tales foi preservado e, mesmo nos tempos de Aristóteles, estes textos já estavam perdidos e, portanto, tudo o que sobre ele sabemos vem de relatos de outros filósofos ou historiadores(10).

(10) A principal fonte de informação sobre a matemática grega primitiva é o texto Sumário Eudemiano escrito por Proclo, sec. V d.C..
(11) Diógenes Laércio, século II d.C..

Heródoto relata que Tales foi um estadista de visão que defendeu a união das cidades jônicas na região do mar Egeu. Já Aristóteles afirmou ter sido ele o primeiro a defender que a água era a substância fundamental do universo e de toda a matéria. Segundo Proclo, Tales aprendeu no Egito o estudo da geometria que passou depois a ensinar na Grécia. Além disto ele teria descoberto diversas proposições por si próprio e seus métodos inovavam em generalidade. Alguns relatos descrevem que Tales teria predito um eclipse do Sol em 585 a.C., uma realização improvável quando analisada sob a luz do conhecimento moderno. Existem relatos interessantes sobre como Tales teria medido a altura das pirâmides egípcias observando “o comprimento de sua sombra no momento em que o comprimento de nossas sombras é igual à nossa altura”(11).

Figura 2: Semelhança de triângulos

Na versão apresentada por Plutarco, no entanto, Tales teria colocado uma vara na extremidade da sombra da pirâmide, estabelecendo triângulos semelhantes e deduzindo a altura procurada. Ele seria, segundo esta versão, o responsável pela descoberta e uso da semelhança de triângulos. Conta também a tradição que Tales mediu a distância de um navio até a praia, provavelmente usando semelhança de triângulos. Para medir esta distância ele teria procedido da seguinte forma: de um ponto O na praia se fixa o olhar no navio, em \(B\). Traça-se uma perpendicular \(OA\) a \(OB\) . De \(A\) se fixa o olhar para o ponto \(B\), onde está o navio. Por um ponto \(C\) escolhido na base \(OA\), traça-se o segmento \(CD\), paralelo à \(OB\), portanto perpendicular à base, cuidando-se para que \(D\) seja um ponto em terra firme e que a distância \(CD\) possa ser conhecida. Sendo os triângulos \(ACD\) e \(AOB\) semelhantes se pode medir a distância \(OB\), como na figura.

Muitos textos sobre a historia da antiguidade creditam a Tales o estabelecimento dos cinco teoremas seguintes:

  1. Um círculo é bissectado por qualquer um de seus diâmetros.
  2. Os ângulos da base de um triângulo isósceles são iguais.
  3. Ângulos opostos, formados por duas retas que se interceptam, são iguais.
  4. Dois triângulos que tem dois ângulos e um lado iguais são iguais.
  5. Um ângulo inscrito em um semicírculo é um ângulo reto.

Acredita-se hoje, no entanto, que não há evidências de que Tales tenha de fato proposto todos estes teoremas. Apesar da incerteza sobre a real contribuição deste pensador para a matemática é considerado certo que ele teve grande importância para a evolução do pensamento científico. Juntamente com seus contemporâneos ele desenvolveu uma concepção de mundo baseada no logos, palavra grega que significa razão, palavra ou discurso. O logos se contrapõe ao pensamento mitológico ou religioso, entendido como verdade revelada que não pode ser discutida ou criticada. Baseado na razão e na capacidade do ser humano de compreender, Tales efetuou uma tentativa para explicar racionalmente o universo sem o recurso a divindades ou outras forças alheias à natureza.

Figura 3: Teorema de Tales

Um exemplo deste pensamento lógico pode ser contemplado na demonstração da afirmação 3 listada acima, que afirma que ângulos entre duas retas que se interceptam são iguais. Pode parecer à primeira vista que a afirmação é óbvia e que não necessita de maior elaboração. Tales, no entanto teria argumentado que α + β é um ângulo raso, porque \(r\) é uma reta, enquanto γ + β também é raso porque porque \(s\) é reta. Igualando os dois ângulos se conclui que se α = γ.

Para explicar a multiplicidade do fenômeno natural e a mutabilidade das aparências, os filósofos da escola de Mileto buscaram um princípio unificador imutável, denominado arké, origem, substrato e causa de tudo o que existe. Tales propôs que a água era o princípio formador da matéria e do universo porque os seres quentes precisam da umidade, a morte traz o ressecamento, os germes são úmidos e os alimentos estão cheios de líquido. Ele julgava natural que as coisas se alimentassem da essência de onde provêm. A água é o fundamento da natureza e a terra repousa sobre a água.

Tales foi o primeiro a buscar explicação para a variedade dos fenômenos por meio de um número reduzido de hipóteses e, juntamente com outros filósofos, tentou encontrar uma explicação racional para tudo aquilo que antes deles era inteiramente explicado pelo mito. No entanto, apesar da relativa liberdade para questionar o que estava estabelecido, a racionalidade deste período não foi capaz de romper integralmente com o conceito arcaico de que na base da multiplicidade do fenômeno existe apenas um elemento primário, o princípio formador de tudo o que existe.

Pitágoras de Samos (~580 a.C. ~500 a.C)

Parte importante da história antiga da matemática grega foi perdida devido ao sucesso e ênfase que se deu ao texto de Euclides, A Geometria, escrito por volta de 300 a.C.. A principal fonte de informação é o Sumário Eudemiano, escrito por Proclo no séc. V d.C., que relata a existência do matemático e filósofo Pitágoras. Muito da vida de Pitágoras permanece imerso nas brumas da lenda e da tradição, sendo difícil até mesmo garantir sua existência histórica. Nenhum documento escrito por ele foi preservado até o presente embora se considere certo que sua sociedade existiu como um grupo fechado, que prezava o sigilo. Seus discípulos o tinham como um mestre dotado de poderes extraordinários, capaz de viajar fora do corpo e entrar em contacto deuses e demônios. Seus rituais de purificação incluíam o ascetismo e a apreciação da beleza e da verdade como forma de libertação da alma. Apesar de sua natureza mística e religiosa seus ensinamentos foram determinantes para a evolução da matemática posterior e da construção do pensamento filosófico e científico ocidental.

Supondo verdadeiro o que relata a tradição, Pitágoras nasceu aproximadamente em 580 a.C na ilha de Samos, uma das colônias na Anatólia, onde hoje se encontra a Turquia e teria sido um discípulo de Tales. Interessado em ciência e filosofia passou um período de sua vida peregrinando pelos santuários gregos, viajando depois pelo Egito, Fenícia, Babilônia, Índia e Pérsia, onde teria aprendido a matemática e o pensamento acumulado por aqueles povos. De volta a Samos ele procurou, sem sucesso, formar um grupo de discípulos. Alguns narradores relatam que ele pagou a um jovem para ser seu estudante, até que o aluno teria despertado seu interesse pela matemática e se oferecido para custear seus estudos. Perseguido pelo tirano Polícrates, principalmente devido a suas idéias sociais renovadoras, por volta do ano 530 a.C., Pitágoras emigrou para Crotona, ao sul da Itália. Lá conseguiu reunir um grupo significativo de seguidores que podiam entender suas doutrinas e contribuir para seu aperfeiçoamento. Com a ajuda de Milos, um homem rico da região e atleta famoso que também apreciava a filosofia, fundou uma comunidade ao mesmo tempo religiosa e filosófica que visava à reforma social e política da região.

Sua doutrina consistia de uma reforma do orfismo que, por sua vez, era uma modificação do culto a Dionísio. A obscuridade que cerca o pitagorismo se deve provavelmente ao caráter religioso e secreto da irmandade. Era comum que um discípulo adotasse o nome de seu mestre ou atribuísse a ele autoria de seus trabalhos, o que torna difícil a correta atribuição de autoria de teoremas e resultados científicos ou filosóficos. Pitágoras ensinava a transmigração das almas e estimulava os discípulos a levar uma vida de austeridade e ascetismo, incluindo a abstenção do consumo de carne. Ao se filiar ao grupo cada membro entregava para a comunidade todas as suas posses mantendo, no entanto, o direito de receber em dobro o que havia depositado se desejasse partir. Os membros, homens, mulheres e crianças de classes diversas, eram tratados com igualdade. Os novos discípulos deviam passar por um período de cinco anos apenas ouvindo e sem ter permissão para falar, enquanto aprendiam os conceitos básicos da doutrina e as normas de comportamento da comunidade. Após esta fase iniciavam o aprendizado de matemática e passavam de discípulos a mestres. Para definir seus propósitos, e os de seu grupo, Pitágoras cunhou a palavra filósofo, amante da sabedoria “pois, embora nenhum homem seja completamente sábio, em todos os assuntos ele pode amar a sabedoria como chave para os segredos da natureza”(12).

(12) Citado em O Último teorema de Fermat, Singh.
(13) Substância simples e indivisível.

Na busca pela substância primordial os diversos pensadores da época se revezavam escolhendo diferentes elementos como candidatos para o elemento essencial: Tales de Mileto propôs que a água era este elemento; Anaximandro se referia ao indeterminado, uma substância infinita que a tudo permeava; Anaxímenes o tomava como sendo o ar, que se tornando fogo podia mover todas as coisas; Heráclito afirmava que a transformação era o elemento essencial. A resposta pitagórica para este problema foi matemática: o essencial é o número! O número está por trás do fenômeno e é a base imutável deste mesmo fenômeno. Aritmética (como teoria dos números), geometria, música e astronomia eram as disciplinas básicas do programa de estudos pitagórico.

Os gregos faziam distinção entre a matemática como uma prática de efetuar cálculos com números (a aritmética) e o estudo das relações abstratas entre estes números (a logística), uma distinção que perdurou até meados do séc. XV. Atribui-se aos pitagóricos a fundação da teoria dos números. Eles se interessavam pelo estudo de propriedades numéricas e se aprofundaram neste estudo, em geral com objetivos místicos que hoje seriam considerados expúrios ou inválidos. Para a linguagem pitagórica, número é sinônimo de harmonia, entidades que, apesar de permanentes e invariantes, podem expressar o processo de permanente mutação da natureza. Inspirados pela tradição arcaica que apontava a Unidade como fonte geradora do universo os pitagóricos consideravam o número 1 como base e fundamento, a mônada(13) formadora de todos de todos os outros números. Combinações desta unidade e as razões entre os inteiros deveriam explicar toda a existência e daí o apreço pelos inteiros e os racionais. Entre os números mais importantes os pitagóricos se ocupavam dos inteiros perfeitos , ou números que são iguais à soma de seus divisores próprios. Exemplos de números perfeitos são

                                 6 = 1 + 2 + 3
                                28 = 1 + 2 + 3 + 4 + 5 + 6 + 7
                               496 = 1 + 2 + 3 + 4 + 5 + 6 + 7 + … + 31
                              8128 = 1 + 2 + 3 + 4 + 5 + 6 + 7 + … + 127.

Se a soma dos divisores de um número inteiro n é maior que o próprio n então ele é dito um número abundante, enquanto se esta soma é menor o número é chamado de deficiente. 12 é abundante pois seus divisores são 1, 2, 3, 4 e 6 cuja soma é 16, enquanto 10 é deficiente. Na tentativa de entender o significado mais profundo dos números perfeitos Pitágoras e seus alunos descobriram que as potências de dois, \(2^n\), são sempre ligeiramente insuficientes (a soma de seus divisores é sempre igual ao número menos um):

Divisores Soma
22 =4 1, 2 3
23 =8 1, 2, 4 7
24 =16 1, 2, 4, 8 15
25 =32 1, 2, 4, 8, 16 31

Euclides mostrou em Os Elementos, nono livro, que, se \(2^n-1\) é um primo então \((2^n – 1) 2^(n-1)\) é um número perfeito. Os pitagóricos também descobriram a existência dos números amigáveis. Dois números são amigáveis se cada um deles é a soma dos divisores próprios do outro. Por exemplo, 284 e 220 são amigáveis:

No. Divisores Próprios Soma
284 1, 2, 4, 71, 142 220
220 1, 2, 4, 5, 10, 11, 20, 22, 44, 55, 110 284

 

(14) Um novo par de amigáveis (17296 e 18416) foi encontrado por Fermat, em 1636. Mais tarde se descobriu que o par já havia sido encontrado pelo árabe al-Banna no século XIII. Descartes e Euler retomaram este estudo fornecendo listas como diversos pares. Curiosamente o par (1184 e 1210) passou desapercebido até 1866, quando foi descoberto pelo adolescente italiano Nicolo Paganini (não o músico, de mesmo nome).

Acreditava-se, pelo menos em períodos posteriores, que dois indivíduos que usassem estes números gravados em um talismã teriam sua amizade fortalecida(14).
Os números figurados usados pelos pitagóricos são vistos como um primeiro elo de ligação entre a aritmética e a geometria. Eles tinham apreço pelos números triangulares e os quadrados, entre outros, e os utilizam em suas especulações filosóficas e demonstrações matemáticas.

Figura 4: Números Pitagóricos
Figura 5

Pode-se obter geometricamente, por exemplo, que todo o número quadrado é a soma de dois triangulares sucessivos, como mostrado na figura 5 ao lado para o caso de 52.
Muitos aspectos da teoria dos números nunca foram esclarecidos pelos pitagóricos ou mesmo por matemáticos de períodos posteriores. Como exemplo, embora existam infinitos números ligeiramente deficientes não se pode encontrar, até o presente, números ligeiramente excessivos, números cuja soma de seus divisores é sempre igual ao número mais um. Também não se mostrou que tais números não existem sendo que esta demonstração permanece como um problema em aberto na atualidade!

Como essência das coisas e sendo o número constituído da soma de pares e ímpares, todas as demais entidades da natureza deveriam encerrar em si tal oposição. O oposto na natureza poderia ser explicado pelo oposto nos números. O caráter dualista das coisas era compreendido e superado pela tese de que todas as antíteses observadas no universo cedem lugar a uma grande unidade harmônica, seu princípio fundamental, da mesma forma que os números pares e ímpares, antitéticos, se derivam da “unidade” primitiva. Nesse sentido todas as coisas são vistas como o ordenamento de átomos ou pequenas partículas ordenadas sob leis numéricas.

As maiores descobertas de Pitágoras e de seu grupo se encontram no domínio da geometria, especialmente nas relações entre os lados de um triângulo retângulo. O assim chamado teorema de Pitágoras era conhecido e utilizado na Mesopotâmia e no Egito para alguns casos particulares. Os gregos, no entanto, o generalizaram e apresentaram a sua prova. Não há unanimidade sobre qual demonstração teria sido feita por Pitágoras, mas muitos historiadores consideram que foi a seguinte: denotando por \(a, b\) e \(c\) os catetos e a hipotenusa de um triângulo retângulo dividimos de duas formas diferentes um quadrado de lado \(a + b\) como representado na figura 5.

Figura 5: Teorema de Pitágoras

O primeiro está dividido em seis partes e sua área é \(a^2 + b^2 + 2ab\). O segundo tem a área de quatro triângulos em cinza e do quadrado central de lado \(c\), sendo portanto \(2ab+c^2\).
Identificando as áreas obtidas temos
$$c^2 = a^2 + b^2$$.
Observamos que, para a realização desta demonstração, é necessário o conhecimento de alguns princípios básicos de geometria, tais como o de que a soma dos ângulos internos de um triângulo retângulo é igual a dois ângulos retos além de propriedades sobre retas paralelas. A descoberta destas propriedades é também atribuída aos pitagóricos, sendo que bem mais tarde elas foram listadas por Euclides em Os Elementos.

(15) Nenhuma das duas fórmulas fornece todos os ternos pitagóricos.

Ligado ao problema do triângulo retângulo está o de se encontrar os ternos pitagóricos \(a, b, c\) satisfazendo \(c^2 = a^2 + b^2\). A seguinte fórmula é atribuída aos pitagóricos:

$$m^2 + \left( \frac{m^2-1}{2}\right)^2 = \left(\frac{m^2+1}{2}\right)^2$$

onde os três termos são inteiros para \(m\) ímpar, constituindo um terno pitagórico. Acredita-se que Platão aperfeiçoou esta fórmula (15) para
$$(2m)^2+(m^2−1)^2=(m^2+1)^2,$$
que fornece ternos pitagóricos para qualquer inteiro \(m\).

Em sua exploração da natureza dos números os pitagóricos terminaram por contradizer uma de suas próprias teses. O teorema de Pitágoras mostra que um triângulo retângulo com dois lados iguais a um tem hipotenusa com comprimento igual a \(\sqrt 2\), um número que não pode ser colocado sob forma de uma razão ou quociente, sendo portanto um irracional. Platão atribui a Teodoro de Cirene a descoberta posterior de diversos outros irracionais, tais como \(\sqrt 3\),\(\sqrt 5\) e \(\sqrt 6\). A aceitação destes números foi um processo lento e difícil. Por algum tempo se tentou manter em sigilo a descoberta da incomensurabilidade ou seja, de números que não podem ser expressos como razões. Existem relatos de que um membro da comunidade teria sido morto ou banido por ter revelado o segredo a fora do círculo. Mais tarde, a busca pela quadratura do círculo, a construção de um quadrado com a mesma área que um círculo de raio dado, levou à descoberta de outro irracional, o número \(\pi\). A solução do problema foi encontrada por Eudoxo, um contemporâneo de Platão, aluno de Arquitas que, por sua vez, foi um dos pitagóricos. Ele generalizou a teoria das proporções para incluir os números irracionais, afirmando que
$$\frac{a}{b} = \frac{r}{s} \to as= br$$
mesmo que qualquer dos números envolvidos seja um irracional. Sabemos hoje que um irracional pode ser obtido como uma soma infinita de termos racionais. Mas os pitagóricos, e os gregos em geral, não conheciam o conceito de infinito ou de quantidades infinitesimalmente pequenas. Tais habilidades somente foram adquiridas com o desenvolvimento da definição de limites, no século XIX.

Acredita-se que uma demonstração da irracionalidade de \(\sqrt 2\), que já era conhecida na época de Aristóteles, foi produzido por um pitagórico. Ela consiste em supor que \(\sqrt 2 = \frac{a}{b}\), \(a\) e \(b\) são primos entre entre si. (Se não fossem a fração poderia ser simplificada dividindo-se ambos os números pelo fator comum.) Então
$$a = 2\sqrt b \to a^2=2b^2.$$
Sendo \(a^2\) o dobro de um inteiro ele deve ser par de onde se conclui que \(a\) é par. Escrevemos \(a=2c\) e a última equação se torna
$$4c^2=2b^2\to2c^2=b^2.$$
Dai se observa que \(b^2\) é par e, portanto, \(b\) é par. Esta é uma contradição visto que a fração \(\frac{a}{b}\) foi suposta irredutível. Como conclusão \(\sqrt 2\) não pode ser um racional.

Os pitagóricos, observando a relação entre notas musicais e o comprimento das cordas do tetracórdio, uma lira de quatro cordas usada na época, sugeriram que a mesma harmonia deveria existir em todo o universo. Por exemplo, uma corda que ressoa com a nota , se presa pela metade, vibra em um dó mais agudo, uma oitava acima. Derivam dai os termos “funções harmônicas” e “progressão harmônica”, usados até hoje na matemática. O corpo humano com saúde, por exemplo, é uma harmonia que, quando rompida, deve ser restabelecida pela medicina.

A observação dos astros sugeriu a idéia de que o universo é, em grande escala, dominado pela ordem. Eles acreditavam, assim como o fizeram pensadores até o Renascimento, que os objetos celestes eram perfeitos e divinos. A sucessão de dias e noites, o alternar das estações e o movimento circular e perfeito das estrelas sugeriam esta conclusão. Por isto o mundo era o Kósmos, termo que implica em ordem, perfeição e beleza, em oposição ao Caos o falta de diferenciação ou estrutura original de onde o universo teria brotado. A cosmologia pitagórica ensinava que a Terra, juntamente com o Sol e as outras estrelas, gira em torno um fogo central. As distâncias entre os astros e o fogo central coincidem com intervalos musicais e o comprimento das cordas de um instrumento e, portanto, o universo ressoa como uma harmonia celeste(16) . Há referências de que autores pitagóricos afirmavam que a Terra é esférica e gira sobre seu eixo.

(16) Dai surgiu a expressão “harmonia das esferas”.
(17) A palavra física vem do grego physis, natureza.
(18) Alguns textos relatam que Pitágoras teria sido morto durante o ataque.

O conceito de que os números estão por trás de tudo e que as equações podem explicar o comportamento da natureza é a contribuição básica dos pitagóricos para a matemática e a ciência moderna em geral. Sem esta crença os pensadores nunca se lançariam à procura de novos modelos e novas ferramentas para a descrição da multiplicidade dos objetos observados no mundo. A matemática é hoje vista como uma linguagem para a construção de modelos de precisão na maior parte da ciência contemporânea, em particular para a física(17).

A irmandade pitagórica foi desfeita por uma conspiração que, segundo alguns relatos, foi iniciada por um candidato que teve seu pedido de ingresso na escola de Crotona recusado. Houve na época uma revolta na cidade vizinha de Síbaris forçando muitos de seus habitantes a se refugiarem em Crotona, o que levou a um ataque ao grupo. Milos conseguiu derrotar os invasores mas a discussão sobre o espólio de guerra e a desconfiança dos cidadãos de Crotona não membros, que temiam que as riquezas fossem todas destinadas a Pitágoras, os levou a invadir e destruir a comunidade. Alguns discípulos emigraram e o próprio Pitágoras foi desterrado(18) para Metaponto, onde morreu por volta do ano 500 a.C.. A escola e irmandade continuou a existir e a influenciar o pensamento da época por mais dois séculos, pelo menos.

Parmênides de Eléia (séc. VI a.C.)

Parmênides nasceu em Eléia, onde se acredita que fundou uma escola semelhante aos institutos pitagóricos para o ensino da dialética. Sua única obra conhecida é um longo poema filosófico em duas partes e 150 versos, chamado Da natureza ou Sobre a verdade, do qual só restam fragmentos. Parmênides defendia que só era real o que pudesse ser compreendido pela razão, inaugurando assim o pensamento metafísico mais tarde sistematizado por Platão, que entende como ilusório o mundo dos sentidos.

Como outros pensadores pré-socráticos ele enfrentou a questão central da busca de arké, um princípio subjacente a todas as coisas, e a determinação de como este princípio único dava origem à realidade do mundo físico, com sua multiplicidade de seres e objetos em constante mutação. Para Parmênides só existe a Unidade, o ser, que ele identifica com o pensamento, pois só se pode pensar sobre o que existe. Esse ser é eterno, imóvel, imutável, homogêneo e esférico, no sentido de que é fechado em si mesmo. Como o Ser não pode se alterar então o aparente movimento das coisas não passa de um engano dos sentidos. Nesse aspecto ele se opunha a Heráclito para quem a mudança era o princípio fundamental da realidade.

Zenão de Eléia (490 a.C. – 425 a.C.)

Zenão foi discípulo de Parmênides e com ele aprendeu a doutrina monista de que todas as coisas que parecem existir são apenas aspectos do Ser único e eterno no qual a modificação e o não ser são impossíveis. Nenhum de seus textos foi preservado e o que dele se sabe foi extraído de relatos de filósofos posteriores, em particular de Platão. Segundo a narrativa de Proclo ele descreve quarenta paradoxos que questionam a crença na continuidade e divisibilidade do espaço. Estes paradoxos tiveram forte influência na evolução posterior do pensamento matemático.

A argumentação de Zenão sob forma de paradoxos estava destinada a atacar a concepção de que o mundo contém mais do que uma única coisa. Ele argumentava que se alguma magnitude pode ser dividida então ela pode ser dividida infinitas vezes, enquanto que algo sem magnitude não pode existir. Nas palavras de Simplício, o último diretor da escola platônica, (sec. VI d.C.),

“[… algo sem magnitude], se acrescentado a alguma coisa não o tornará maior, se subtraído não o tornará menor. … Fica claro neste caso que o que foi acrescentado ou subtraído não é coisa alguma!”

Embora estes argumentos possam parecer pouco convincentes para a mente moderna, eles estimularam o aperfeiçoamento dos conceitos defendidos por aqueles que não acreditavam no Unitarismo de Parmênides.

Zenão se referia a paradoxos referentes ao movimento: “Nenhum movimento é possível, pois o que se move deve primeiro alcançar a metade do caminho antes de alcançar seu destino”. Repetindo o mesmo processo infinitas vezes ele concluía pela impossibilidade de um deslocamento, pois o objeto teria que executar infinitas operações em um intervalo finito de tempo. O paradoxo de Aquiles e a tartaruga contém um conteúdo similar: o corredor veloz nunca poderia alcançar a tartaruga que tivesse partido em sua frente pois, quando Aquiles atinge o ponto de partida da tartaruga esta já teria se deslocado para frente, e assim sucessivamente.

A solução de Zenão para o paradoxo se baseava na crença da Unidade Indivisível onde o movimento não era possível porque não havia partes separadas do espaço de onde e para onde um objeto pudesse viajar. Uma resposta histórica para este problema se deu na criação da teoria atômica, que sustentava que a matéria era constituída por blocos indivisíveis. Neste caso ela poderia ser dividida, mas não infinitamente.

Portanto os paradoxos foram importantes para impulsionar as noções de limite e do cálculo diferencial. Alguns autores sustentam que Zenão dirigia seus ataques particularmente aos pensadores de seu tempo que cogitavam no uso de quantidades infinitesimais. O conceito dos incomensuráveis de Anaxágoras e dos seguidores de Pitágoras também eram um alvo destas críticas.

Acredita-se hoje que os filósofos gregos posteriores a Zenão não perceberam plenamente a importância e o significado dos desafios por ele propostos. Muitos o julgaram um mero malabarista de conceitos e um manipulador de sofismas. No entanto sua contribuição é hoje plenamente reconhecida e a completa solução de seus paradoxos somente se deu muito recentemente, no século XIX, com o aprimoramento do conceito de limite.

Zenão também apresentou um sistema cosmológico onde o universo era descrito como composto por vários “mundos” feitos de calor, frio, umidade e secura, mas sem admitir em qualquer região o espaço vazio. Esta parece ser uma crença comum em torno do século V a.C. entre membros da escola Eleática e não há consenso de que tenha sido realmente proposta por Zenão.

Anaxágoras (c.500-c.428 a.C.)

Nascido em Clazômenas por volta do ano 500 a.C. Anaxágoras foi um dos responsáveis pela introdução em Atenas das concepções desenvolvidas pelos pensadores das colônias. Ele era a figura principal do grupo de intelectuais reunidos em torno de Péricles, o governante que promoveu a democracia estimulando a busca do conhecimento. Poucos fragmentos sobraram de sua obra e muita controvérsia existe sobre sua real contribuição. Juntamente com os filósofos de Mileto ele sustentava que a experiência dos orgãos dos sentidos coloca o ser humano em contato com uma realidade impermanente, cuja constituição última ele buscava encontrar.

Anaxágoras ensinava que “nada vem à existência nem é destruído, tudo é resultado da mistura e da divisão”. A pluralidade de seres no mundo real é apenas o produto de ordenações e reordenações sucessivas dos princípios básicos existentes. Nada pode chegar a ser aquilo que não é ou deixar de ser o que é. Ele defendeu a idéia de que existe um princípio ordenador junto à matéria, um nous ou “inteligência”, como causa do movimento e por isso foi chamado de o primeiro dualista. Na descrição de Platão, Anaxágoras recorria a essa tese para explicar a origem do movimento no universo, sem o qual o universo ficaria abandonado a forças mecânicas. As opiniões científicas de Anaxágoras terminaram por se chocar com as concepções religiosas da época, o que lhe custou um julgamento por ateísmo. Graças à ajuda de Péricles ele conseguiu se refugiar em Lâmpsaco, onde morreu por volta de 428 a.C..

O conceito de Nous ou inteligência por trás da matéria representa um passo importante para a criação de um ambiente propício para o surgimento do pensamento científico. Primeiro, o universo deve ser ordenado o suficiente para que possa ser alvo de investigação. Segundo é necessário que a inteligência tenha instrumentos de captação da realidade compatíveis com o que ocorre no mundo objetivo, caso contrário não teria como estabelecer com ele qualquer relação.

Anaximandro de Mileto (610- c.546 a.C.)

Anaximandro de Mileto é considerado o fundador da astronomia e o primeiro pensador a desenvolver uma cosmologia, ou visão filosófica sistemática do mundo. Nascido em Mileto no ano 610 a.C., foi discípulo de Tales, o fundador da chamada “escola de Mileto”. Ele teria escrito tratados sobre geografia, astronomia e cosmologia que permaneceram como fonte de inspiração para outros filósofos por vários séculos. Racionalista que prezava a simetria, ele utilizou as proporções geométricas e matemáticas na tentativa de mapear o céu, abrindo o caminho para os astrônomos posteriores.

Em sua teoria o mundo era derivado de uma substância imponderável, denominada apeiron (o ilimitado), matéria eterna e indestrutível, anterior à “separação” dos contrários, como quente e frio, seco e úmido. Ela representava a unidade primordial por trás da aparente diversidade dos fenômenos. Todos os elementos antagônicos estavam contidos no apeiron, que não tinha princípio nem fim.

A ele se atribui a descoberta de que a eclíptica é oblíqua ou seja, de que o eixo de rotação da Terra não é exatamente perpendicular ao plano da órbita em torno do Sol, sendo que a maioria dos planetas estão aproximadamente neste mesmo plano. Além disto ele inventou o quadrante solar e idealizou os primeiros mapas geográficos. Uma de suas afirmações era de que a Terra permanecia em repouso no centro do universo porque não tinha motivo para se mover em nenhuma direção. Com suas hipóteses sobre a transformação de espécies inferiores em superiores ele antecipou o conceito de evolução de Darwin.

Anaxímenes de Mileto (séc. VI a.C.)

Juntamente com Tales e Anaximandro, Anaxímenes formou o trio de pensadores tradicionalmente considerados os primeiros filósofos do mundo ocidental. De seus tratados só subsistiram citações em obras de autores subseqüentes, daí os conflitos na interpretação de suas idéias.

Ele ensinava que o ar era o elemento primordial, base de todas as coisas que dele resultavam e a ele retornavam, por um duplo movimento de condensação e rarefação. Os graus de condensação correspondiam às densidades de diversos tipos de matéria. Quando distribuído mais uniformemente era o ar atmosférico invisível. Por condensação se tornava visível, a princípio como névoa ou nuvem, em seguida como água e depois como matéria sólida – terra e pedras. Em sua fase mais rarefeita se transformava no fogo. Bom observador, ele afirmou que o arco-íris não era uma deusa, mas o efeito dos raios de sol sobre um ar mais denso.

Heráclito de Éfeso (c.540-c.480 a.C.).

Considerado o último dos grandes pensadores da Escola Jônica Heráclito era filho de aristocratas. Os modernos historiadores do pensamento grego costumam tratar Heráclito como o primeiro filósofo a propor uma visão dialética do mundo. No século XIX, Hegel o apontou como um precursor de suas próprias concepções. Heráclito ridicularizava os cultos e ritos de seu povo e, por ter um estilo de difícil compreensão, foi chamado de “o obscuro”. Da obra que lhe é atribuída, restam apenas alguns fragmentos do livro Peri physeos (Da natureza), que se dividiria em três partes: o universo, a política e a teologia.

As histórias da filosofia apresentam Heráclito como um pensador de posições opostas às de Parmênides. Se este era o filósofo do ser, Heráclito era o do vir-a-ser, do devir. Para ele, tudo está em contínuo movimento, tudo flui. Ninguém se banha duas vezes no mesmo rio, porque tanto o rio quanto a pessoa mudam incessantemente.

Heráclito considerava como substância única, ou arkhé, o fogo, definido como mobilidade e inquietação. O próprio ar transforma-se em outros elementos e estes, em mudanças sucessivas, chegam ao fogo. Tais mudanças, porém, não se fazem ao acaso. A marcha e a ordem dos acontecimentos são guiadas pelo logos, essência racional do Universo, expressa pelo fogo. Do ponto de vista ético, a virtude consiste na subordinação do indivíduo a essa razão universal. O mal, segundo Heráclito, está em que muitos querem viver como se fossem seu próprio logos, isto é, o centro dos acontecimentos. Heráclito morreu em Éfeso por volta de 480 a.C..

A Idade Heróica da Filosofia

Com a importação das idéias filosóficas vindas das colônias e o fortalecimento do regime democrático impulsionado pela administração de Péricles, a civilização helênica, principalmente em Atenas, viveu uma época de esplendor e efervescência cultural. Entre as reformas implantadas pelo regime democrático figurava a criação do tribunal popular dos heliastas, cidadãos que se reuniam ao ar livre para deliberar sobre assuntos da cidade.

No governo de Péricles, Atenas entrou em uma fase expansionista, monopolizando o comércio marítimo e tiranizando seus aliados da confederação de Delos. Essa política levou a um longo conflito armado com Esparta, conhecido como guerra do Peloponeso. Também neste período a peste dizimou grande parte da população ateniense. Outra fonte de conflitos foi o fato de que apenas os cidadãos de Atenas, menos de dez por cento da população, tinha total direito à cidadania. Os demais habitantes eram estrangeiros, os filhos destes e os escravos e estava excluída da maioria dos benefícios destinados ao cidadão. Neste período, embora curto, floresceu a mais importante escola de pensamento da antiguidade e surgiram os três maiores pensadores da Grécia Antiga, Sócrates (c.470-c.399 a.C.), Platão (c.428-c.348 a.C.) e Aristóteles (384-322 a.C.), os responsáveis pelo estabelecimento dos fundamentos filosóficos da cultura ocidental.

Sócrates (c.470-c.399 a.C.)

Sócrates nasceu em Atenas por volta do ano 470 a.C.. Como não deixou obras escritas, tudo o que se sabe de sua vida e de suas idéias é o que relatam principalmente autores como Platão e Xenofonte. Sócrates gozava de muita popularidade em Atenas e vivia cercado de seus jovens discípulos, embora seus ensinamentos também lhe valessem grande número de inimigos. Passava a maior parte do tempo ensinando em lugares públicos, como praças, mercados e ginásios, mas ao contrário dos filósofos profissionais – os sofistas, que combatia com vigor – não cobrava por suas lições.

Se os filósofos anteriores buscavam obsessivamente uma explicação para o mundo natural, para Sócrates a especulação filosófica deveria se voltar para assunto mais urgente: o ser humano e os temas a ele concernentes, como a ética e a política. Sócrates dizia que a filosofia não era possível enquanto o indivíduo não se voltasse para si próprio e reconhecesse suas limitações. “Conhece-te a ti mesmo” era seu lema. Conta-se que Sócrates, quando jovem, foi visitar o Oráculo de Delfos que o teria apontado como o mais sábio de todos os homens. Sócrates reagiu afirmando “Só sei que nada sei” e, a partir daí, passou a entrevistar as pessoas supostamente sábias para encontrar alguém que fosse mais sábio que ele. Assim, ele se voltava para as pessoas e os interrogava a respeito de assuntos que eles julgavam saber. Seu senso de humor confundia os interlocutores que acabavam confessando sua ignorância, da qual Sócrates extraía sabedoria. Com isto ele desenvolveu um método de argumentação, ensino e pensamento através do qual se pode extrair da pessoa que ouve um entendimento que, a princípio, ela já possui.

O exemplo clássico da aplicação do método socrático está relatado no diálogo platônico intitulado Mênon, no qual Sócrates leva um escravo ignorante a descobrir e formular vários teoremas de geometria. A indução, finalmente, consiste na apreensão da essência (do universal que se acha contido no particular), na determinação conceitual e na definição. A teoria socrática das essências preparou a teoria platônica das idéias.

Sócrates lançou as bases do racionalismo idealista, desenvolvido mais tarde por Platão. O método e as intenções de Sócrates constituíram o início da reação helênica contra o relativismo defendido pelos sofistas, que havia levado o pensamento filosófico à ruína. Diante do crescente individualismo e da crise de valores que ameaçavam a democracia ateniense, depois do declínio do culto às divindades gregas, questões sobre a melhor forma de governo e a moral individual tornaram-se prementes. Entretanto, a resposta de Sócrates, que pregava um sistema moral absolutamente alheio às doutrinas religiosas e admitia a aristocracia – governo dos melhores – como a forma desejável de administração do estado, fez com que se indispusesse com as autoridades conservadoras, o que lhe custou a vida.

No ano de 399 a.C. Sócrates foi acusado de corromper a juventude e desdenhar o culto aos deuses tradicionais. O processo foi montado de modo a forçar o pensador a contrariar suas idéias e a retratar-se. A maioria dos comentadores concorda que ele teria sido poupado se não se mostrasse tão inflexível. Sócrates manteve diante do tribunal a mesma postura irônica de sempre, o que aumentou a irritação dos juízes. O tribunal perguntou ao réu que pena ele considerava justa para si próprio. Sócrates respondeu que, tendo prestado tantos serviços à cidade, achava justo receber uma pensão vitalícia do estado. Além disso, declarou que não aceitaria o degredo. Foi o bastante para que o tribunal o condenasse à morte. Como sentença ele foi obrigado a beber uma taça de cicuta, um veneno mortal. Na prisão continuou a receber amigos e discípulos para debater assuntos como a morte e a imortalidade da alma.

Sócrates não foi particularmente devotado à matemática ou à ciência, estando sempre mais voltado para as questões éticas e do autoconhecimento. No entanto sua postura inquiridora impulsionou seus discípulos, especialmente Platão, a continuar o avanço do entendimento sobre o ser humano e seu contato com o universo.

Platão (c.428-c.348 a.C.)

Platão nasceu em Atenas por volta do ano 428 a.C. e, aos 18 anos, conheceu Sócrates, que foi seu mestre até ser condenado à morte. Após a morte do mestre Platão peregrinou por diversas partes da Grécia, tendo estado em contato com os pitagóricos de Siracusa, no sul da Itália.

De volta a Atenas fundou a Academia, uma escola destinada à investigação filosófica, e a dirigiu pelo resto da vida. Em sua Academia o conhecimento da matemática era amplamente estimulado, especialmente da geometria. A obra de Platão foi escrita sob a forma de diálogos e, diferente do que ocorreu com a maioria de seus antecessores, seus textos foram conservados na totalidade. Em linha geral eles se dividem da seguinte forma:

  1. Diálogos socráticos ou de juventude, nos quais a figura e a doutrina de Sócrates ocupam lugar de destaque: Apologia de Sócrates, Protágoras, Trasímaco, Críton, Íon, Laques, Lísis, Cármide, Eutífron e os dois Hípias.
  2. Diálogos construtivos ou da maturidade: Górgias, Ménon, Eutidemo, Crátilo, Menéxeno (nem sempre aceito como de autoria de Platão), O banquete, A república, Fédon e Fedro. Nos quatro últimos, a teoria das idéias aparece exposta em sua forma mais característica.
  3. Diálogos tardios, grupo que, iniciado com Teeteto, inclui os escritos elaborados durante a velhice de Platão e nos quais ele faz a revisão crítica da teoria das idéias: Parmênides, Sofista, Filebo, Político, Timeu, Crítias e as leis.

A filosofia de Platão está centrada sobre um propósito principal: o conhecimento das verdades essenciais que determinam a realidade – a ciência do universal e do necessário – para poder estabelecer os princípios éticos que devem nortear a realidade social, em busca da concórdia numa sociedade em crise. Como primeiro passo para sua metafísica, Platão considerou necessário elaborar uma teoria do conhecimento. Uma vez que os sentidos nos revelam as coisas como múltiplas e mutáveis, ao passo que a inteligência nos revela sua unidade e permanência, procurou uma solução que conciliasse o testemunho dos sentidos e as exigências do conhecimento intelectual. Baseou-se nos conceitos matemáticos e nas noções éticas para demonstrar que existe uma essência real e eterna das coisas. Como argumento ele usou a possibilidade de pensar em figuras geométricas puras, que não existem no mundo físico. Em seguida ele concluiu pela existência de um mundo de essências imutáveis e perfeitas, o mundo arquetípico, constituído pela realidade inteligível (os objetos do conhecimento científico ou epistemológico). O mundo sensível, o objeto da opinião, copia de forma imperfeita as leis deste mundo arquetípico superior. O ser humano, por possuir corpo e alma, pertenceria ao mesmo tempo a esses dois mundos.

Segundo Platão a alma é anterior ao corpo, e antes de aprisionar-se nele, pertenceu ao mundo das idéias. Sua natureza é tríplice: no nível inferior está a alma das sensações, onde residem os desejos e as paixões; em seguida há a alma irascível, que impele à ação e ao valor; e acima delas está a alma racional, que pertence à ordem inteligível e permite ao homem recordar sua existência anterior (teoria da reminiscência) e ter acesso ao mundo das idéias mediante o cultivo da filosofia. A alma superior é imortal e retornará à esfera das idéias após a morte do corpo. A admiração teórica do bom, do belo e do verdadeiro é principal forma de retorno da psique (a alma) à sua glória anterior, perdida quando ela se envolve com a turbulência e a contingência da vida comum, mergulhada no mundo dos sentidos. A matemática, por ser uma descrição direta desta realidade considerada superior, tem papel de destaque no pensamento platônico.

Muito do ensinamento de Platão se refere á ética e a política, com aplicações à vida comunitária nas cidades e do relacionamento entre os cidadãos. Ele foi um dos filósofos mais influentes de todos os tempos. Seu pensamento dominou a filosofia cristã antiga e medieval. Platão morreu em Atenas, em 348 ou 347 a.C.

Aristóteles

Aristóteles nasceu em Estagira, Macedônia, em 384 a.C. e durante vinte anos foi discípulo de Platão. Com a morte do mestre passou a ensinar suas próprias doutrinas, tendo sido instrutor de Alexandre, o Grande. Em 333 voltou a Atenas, onde fundou o Liceu. Durante 13 anos dedicou-se ao ensino e à elaboração de suas obras principais. Seu pensamento se caracterizou pelo rigor de sua metodologia, pela variedade dos temas considerados e pelo esforço em considerar todas as manifestações do conhecimento como ramos de um tronco comum.

Todas as obras de Aristóteles se perderam, exceto A Constituição de Atenas, descoberta em 1890. Os textos hoje disponíveis foram coletados de anotações feitas por alunos e conferências compiladas por discípulos e historiadores posteriores. Seus principais textos são dedicados á lógica, filosofia da natureza (Física), psicologia e antropologia, sobre a alma, zoologia, poética, ética, política e Metafísica.

No que se refere ao conhecimento científico Aristóteles contribuiu procurando buscou resolver o problema do conhecimento, da possibilidade do ser subjetivo conhecer algo a respeito do mundo objetivo, a natureza. No dualismo platônico o mundo da inteligência se encontra separado do das coisas sensíveis. O realismo de Aristóteles procura estabelecer a possibilidade do conhecimento através da experimentação, a verificação de como se comporta a physis, a natureza. Por este motivo vários historiadores o consideram o primeiro pesquisador científico, no sentido atual do termo.

Nos primeiros séculos da era cristã as considerações de Aristóteles sobre a lógica foram reunidas sob a denominação de Órganon – já que se considerava a lógica um instrumento da ciência, um órganon. Nesta obra ele estuda e classifica os diferentes modos de atribuição de um predicado a um sujeito e esboça a teoria do silogismo. Essa teoria busca demonstrar a correção formal do raciocínio, independentemente de sua verdade objetiva. Assim, se todo B é A e se todo C é B, então todo C é A. A primeira proposição é a maior; a segunda, a menor; e a última, a conclusão. Todo o saber, no entanto, depende de princípios indemonstráveis mas necessários a qualquer demonstração: os axiomas.

Em sua filosofia da natureza Aristóteles sustenta que a mudança nos seres não contraria o princípio de identidade ou unidade fundamental de todos as coisas, mas representa a atualização da potência nelas contidas previamente. A partir daí, o filósofo apóia sua física em duas teorias filosóficas: a da substância e do acidente, e a das quatro causas. A substância existe por si, é o elemento estável das coisas. O acidente é a variação e a mudança, motivada pelo que existe em potencial. Graças à união entre os dois princípios a substância se manifesta através dos acidentes, o ser e a atuação do ser.

O físico deve possuir um acurado espírito de observação. A natureza é autocriada, e o ser potencial que nela atua é o movimento que se manifesta como aumento e diminuição ou, na modificação espacial, como movimento. Sobre o movimento Aristóteles acreditava que o estado natural de um corpo era em repouso e que ele não poderia permanecer em movimento sem a ação constante de uma força. Paradoxalmente, embora tenha defendido a observação da natureza para consolidação de uma teoria não ocorreu a Aristóteles realizar experimentos para a verificação deste conceito, o que só foi feito muito mais tarde por Galileu Galilei.

Com a morte de Alexandre em 323 a.C. Aristóteles teve de fugir à perseguição dos democratas atenienses, refugiando-se na cidade de Cálcide, onde morreu em 322 a.C.

Evolução da Matemática

Enquanto os conhecimentos sobre o Egito e Mesopotâmia foram fortemente impulsionados pela descoberta de documentos arcaicos, tais como o papiro de Ahmés e a pedra da Rosetta, nenhum dos textos originais gregos foi preservado até o presente. A grande maioria das fontes originais foi destruída durante a Idade das Trevas, sob a motivação do fanatismo religioso e do obscurantismo. As referências hoje disponíveis sobre o pensamento grego provêm de manuscritos bizantinos, escritos em média mil anos após sua elaboração original, e as traduções árabes dos textos clássicos gregos e romanos. O estudo dos primeiros pensadores é particularmente difícil e muito do que se acredita a respeito destes sábios provém de lendas e relatos indiretos. A reconstrução da informação é difícil e incerta devido a diversos fatores. O ensinamento de algumas escolas do período mais antigo era considerado secreto e os discípulos eram impedidos, por meio de votos de silêncio, de divulgar livremente o que haviam aprendido, como era certamente o caso da escola pitagórica. Grande parte do ensinamento era oral e pouca coisa foi colocada por escrito como medida de segurança. Para confundir ainda mais o historiador havia o hábito de se atribuir autorias incorretas a alguns desenvolvimentos. Um exemplo disto era a prática comum de se atribuir ao mestre a realização de um de seus discípulos, ou ainda, que um pensador desconhecido atribuísse a um professor de renome a sua descoberta, buscando com isto valorizá-la.

(19) Cidadãos eram os homens, maiores de idade, que haviam servido o exército. Mulheres e escravos não partilhavam destas vantagens.
(20) A crença na razão é necessariamente uma crença no poder unificador na mente. Deve ser possível explicar a grande variedade de fenômenos observados no mundo externo por meio de um número finito, de preferência um número pequeno de modelos, de teorias ou conceitos.

O estudo da história indica que o contato grego, ocorrido a partir do século VI a.C. com os persas, na Jônia, permitiu a transmissão das idéias científicas e tecnológicas acumuladas pelas civilizações mais antigas do Oriente Médio e, provavelmente, do Extremo Oriente. Este conhecimento se somou à cultura e tecnologia já trazidas pelos primeiros invasores do norte. Impulsionados por sua curiosidade, por uma atitude racionalista e a crença na capacidade do ser humano de entender o mundo e a si próprio, os gregos revolucionaram o pensamento científico e matemático. A relativa estabilidade política contribuiu para o fortalecimento das liberdades individuais do cidadão(19) e favoreceram o rompimento com a tradição arcaica transmitida pelo mito e pela religião, criando o terreno propício para a evolução das artes, da filosofia e das ciências, entre elas a matemática. A mentalidade grega abrigava a crença na racionalidade(20) humana, na capacidade de se compreender o mundo e a si próprio. De inspiração mais filosófica e menos pragmática a matemática adquiriu na Grécia seu caráter de ciência abstrata com bases e metodologia de desenvolvimento bem fundamentadas.

Com a invasão dos Dórios, em torno de 1200 a.C., muitos dos habitantes do continente fugiram para as ilhas jônicas e a costa da Ásia Menor, onde fundaram colônias. Nestas colônias se deu a formação da escola jônica onde floresceu a filosofia e a geometria demonstrativa. Com o crescimento do poderio militar persa e das invasões por eles efetuadas, muitos pensadores, como Pitágoras e Xenófanes, abandonaram sua terra natal e se transferiram para as colônias gregas no sul da Itália. Pitágoras deu início à escola em Crotona enquanto Xenófanes, Zenão e Parmênides lideraram a escola de Eléia. No séc. VI a.C., principalmente com as contribuições de Tales e Pitágoras, a matemática passou por uma profunda transformação adquirindo o espírito crítico e a liberdade da criatividade e assumindo muitas das características que possui até o presente. Na nova abordagem se tornou importante o estabelecimento de definições precisas, a explicitação dos pressupostos ou axiomas e o uso do pensamento lógico-dedutivo para extrair as conseqüências possíveis e necessárias. A pesquisa matemática passou a ser feita através de uma formulação clara dos problemas a serem considerados e incluía uma distinção nítida entre uma conjectura e um teorema demonstrado.

A luta contra os persas, no entanto, teve grande duração. A cidade de Atenas, que havia se destacado pela evolução social, política e científica, liderou uma reação contra os invasores, consolidando sua hegemonia sobre as demais cidades-estados. Durante o regime de Péricles a cidade se tornou o centro cultural na Grécia, criando um ambiente que atraiu muitos matemáticos, entre eles Anaxágoras, o último membro eminente da escola jônica, Zenão e Parmenides, da escola eleática, e diversos pitagóricos. Este período de estabilidade durou até o início da guerra do Peloponeso, travada entre Atenas e Esparta, iniciada em 431 a.C. e finalizada em 404 a.C., com a vitória de Esparta, uma cidade voltada para o militarismo e pouco dedicada ao pensamento científico. Esparta manteve o poder até 371 a.C. quando foi derrotada por uma liga de cidades rebeldes. Durante o período de conflitos mais acirrados poucas contribuições para o avanço da matemática são registrados.

Terminada a guerra do Peloponeso Atenas retomou sua liderança intelectual. Ali nasceu Platão em 427 a.C., ano em que uma grande peste se abateu sobre a região. Ele foi discípulo de Sócrates e depois saiu em viagem pelo mundo buscando aprender o conhecimento existente. De volta à Atenas fundou a Academia, uma instituição devotada à investigação científica e filosófica. As grandes contribuições à matemática feitas na Academia, no séc. IV a.C., são atribuídas a outros membros da escola que é considerada, por isto, o elo de ligação entre os pitagóricos e a escola mais moderna de Alexandria. A importância de Platão, neste caso, se deve à sua defesa enfática de que a matemática é o treinamento mais refinado para o espírito, uma condição necessária para o estabelecimento da verdadeira filosofia e para a formação dos líderes e governantes. Que aqui não entre quem não sabe geometria, era o lema afixado à entrada da Academia.

Diversos alunos da escola platônica se dedicaram à matemática e a difundiram pelo mundo grego, fundando novas escolas no continente ao nas colônias. Eudoxo fundou uma escola na Ásia Menor e teve como discípulo Menaecmo, o descobridor das seções cônicas. A Teeteto se atribui grande parte do conteúdo mais tarde exposto nos Elementos, de Euclides. Outro aluno de Platão com importantes contribuições para a filosofia e a ciência foi Aristóteles. Embora não fosse propriamente um matemático ele sistematizou o sistema de lógica dedutiva e deixou vários textos sobre física e outras áreas diversas da filosofia.

Durante primeiro período de 300 anos da matemática grega, contando a partir de Tales de Mileto, três linhas de desenvolvimento se destacaram: a geometria iniciada pelos pitagóricos e que culminou nos trabalho de Euclides, a geometria superior, voltada para o tratamento de curvas além da reta e da circunferência e o tratamento dos processos infinitesimais, das quantidades infinitas e das somas infinitas. Os paradoxos de Zenão e os métodos de exaustão de Antífon e Eudoxo são representantes deste último tópico. Grande parte da evolução destes conceitos surgiu da tentativa de se resolver os três grandes problemas, fazendo uso apenas de régua e compasso:

  1. A duplicação do volume do cubo. Conta-se que durante a peste uma consulta foi feita ao oráculo de Delfos sobre o que deveria se fazer para sanear as cidades. O oráculo teria respondido que seria necessário duplicar o volume do altar dedicado a Apolo. Duplicando-se uma das arestas, o que foi tentado sem sucesso, o volume seria multiplicado por 23.
  2. A triseccção do ângulo. O problema consistia em dividir um ângulo arbitrário em três partes iguais.
  3. A quadratura do círculo. Como construir um quadrado com área igual à área do círculo dado e equivale a se encontrar a área do círculo.

Nenhum dos três problemas, como se mostrou no século XIX, pode ser resolvido através do uso de régua e compasso exclusivamente. Cabe, no entanto, notar que os instrumentos régua e compasso mencionados não são como os instrumentos modernos. A régua permite traçar retas de comprimento qualquer ligando dois pontos, mas não tem escala ou graduação. O compasso não pode ser usado para transferir comprimentos, mas apenas construir círculos de raio qualquer a partir de qualquer centro. Com réguas graduadas ou com transferências de comprimentos (o que permitiria a construção de uma escala) seria possível, por exemplo, trisseccionar o ângulo. A busca de solução para os três problemas levou ao desenvolvimento de teorias tais como as das seções cônicas, curvas cúbicas e quárticas e diversas curvas transcendentes. A teoria das equações, dos números algébricos e a teoria de grupos são evoluções posteriores destas linhas de investigação.

Alexandria

Em torno do ano de 350 a.C. o centro cultural da Grécia se transferiu de Atenas para Alexandria, uma cidade no Egito construída por Alexandre o Grande. Em Alexandria foram construídas escolas importantes e bibliotecas que abrigavam pensadores de diferentes origens e correntes de pensamento convivendo sob um regime de liberdade e ecletismo cultural. Ali viveram grandes matemáticos, como Euclides, que escreveu os Elementos em torno de 300 a.C.. Este livro continha uma grande compilação do conhecimento acumulado na matemática nos períodos anteriores, contendo tratados sobre geometria e teoria dos números. A cidade permaneceu como centro cultural grego até o ataque dos muçulmanos em 700 d.C..

Após um período de notáveis descobertas em geometria e aritmética – em que se destacaram matemáticos como Hipócrates, Heron de Alexandria e Diofanto de Alexandria – Euclides, por volta de 300 a.C., realizou um exaustivo trabalho de compilação e interpretação das doutrinas matemáticas gregas nos Elementos, que permaneceu como texto influente até a modernidade européia. Foi na Grécia que a geometria se tornou uma ciência abstrata, com a feição dedutiva que hoje a caracteriza, e que surgiu pela primeira vez a preocupação de estabelecer relações entre as diferentes partes de uma figura como, por exemplo, os lados e ângulos de um triângulo.

Euclides

Euclides viveu em Alexandria por volta de 300 a.C., em pleno florescimento da cultura helenística, quando essa cidade era o centro do saber da época. Além da matemática, ele escreveu sobre ótica, astronomia e música. Entre os poucos dados de que se dispõe sobre sua vida sabe-se que ensinou matemática e fundou uma escola em Alexandria durante o reinado de Ptolomeu I. A essência de seu legado escrito, contudo, foi de tal magnitude que ele foi considerado o mais importante matemático da antiguidade. Depois da queda do Império Romano os livros de Euclides foram recuperados para a sociedade européia pelos estudiosos árabes da península ibérica. A primeira tradução direta do grego de que se tem notícia data de 1505. A partir de então, as edições da obra de Euclides se sucederam sem interrupção e os Elementos se tornaram um dos livros com maior número de publicações ao longo da história.

A obra era dividida em 13 livros, é um dos mais notáveis compêndios matemáticos de todos os tempos. Reúne o trabalho de seus predecessores, como Hipócrates e Eudóxio, sistematiza todo o conhecimento geométrico dos antigos e intercala os teoremas já conhecidos com a demonstração de muitos outros, que completam lacunas e dão coerência e encadeamento lógico ao sistema por ele criado. Os 13 livros que compõem Os Elementos contêm uma compilação da maior parte do conhecimento acumulado pelos gregos até aquele momento, incluindo a geometria elementar, geometria de polígonos e do círculo, a teoria dos números, a teoria dos incomensuráveis e medidas de áreas e volumes. A argumentação de Euclides foi tomada como um modelo de rigor lógico exibido nos tempos antigos, enquanto a estrutura de sua apresentação, feita sob a forma de definições, axiomas, postulados e teoremas é praticamente a mesma usada na matemática nos dias de hoje. Nos livros está ilustrada a prática grega de estabelecer provas matemáticas através da definição clara dos pressupostos iniciais e da argumentação lógica para se obter as conclusões desejadas.

Um traço característico do procedimento de Euclides é a formulação das proposições geométricas de forma universal e absoluta, acompanhadas das respectivas demonstrações, que nunca se revestem de caráter experimental. São sempre dedutivas, ou seja, se apóiam em premissas, e procuram chegar a conclusões necessárias do ponto de vista lógico. Euclides chamou de postulados as leis geométricas tomadas como premissas básicas e admitidas sem demonstração. Teoremas ou proposições são as leis demonstradas a partir dos postulados. Para construir seu sistema, Euclides recorreu ainda a princípios básicos que chamou axiomas, os quais diferem dos postulados pelo caráter mais geral que revestem.

Os cinco postulados de Euclides representam a base da geometria Euclidiana, mantida inalterada por muitos séculos. São eles:

  1. Uma reta pode ser traçada ligando dois pontos quaisquer.
  2. Qualquer segmento de reta pode ser prolongado indefinidamente.
  3. Um círculo de qualquer diâmetro pode ser desenhado com centro em qualquer ponto.
  4. Todos os ângulos retos são iguais entre si.
  5. Se uma reta intercepta duas retas formando ângulos interiores de um mesmo lado menores que dois retos, prolongando-se estas duas retas indefinidamente elas se encontrarão no lado em que os ângulos são menores que dois retos.

Mais tarde de mostrou que o quinto postulado é equivalente às afirmações: (a) a partir de um ponto fora de uma reta é possível construir uma única reta paralela à reta inicial; (b) a soma dos ângulos internos de um triângulo é de 180o.

Também foi mostrado que este último postulado é independente dos demais e que outras geometrias podem ser construídas através de seu relaxamento. Além disto, do ponto de vista do matemático moderno, é considerada impossível a tarefa a que Euclides se propôs, isto é, a de definir todos os termos de um sistema de forma autoconsistente. Entende-se que tal propósito conduziria a um círculo vicioso ou a uma regressão infinita. Assim, a elaboração de um sistema como o euclidiano envolveria duas decisões fundamentais: a primeira diz respeito aos termos primitivos, que devem possibilitar a definição de todos ou da maior parte dos demais, e a segunda se refere a quais são os axiomas ou postulados a serem escolhidos.

Foi Euclides, no entanto, quem estabeleceu as fundações que permaneceram inalteradas por mais de 24 séculos, seja por mérito de uma compilação bem organizada ou por desenvolvimento próprio. Tem sido amplamente aceito que Euclides foi um grande professor e compilador das idéias que apresentou, não sendo em geral o descobridor das teorias expostas. O espaço geométrico euclidiano, imutável e simétrico, perdurou como um paradigma fundamental da ciência moderna quase até o presente. Somente nos tempos modernos puderam ser construídos e compreendidos modelos de geometrias não-euclidianas.

Eratóstenes (c.276-c.194 a.C.)

O geógrafo e matemático grego Eratóstenes, um estudioso de ampla cultura, foi o primeiro a determinar o comprimento da circunferência terrestre e tratou, com maior ou menor profundidade, todas as ciências de seu tempo.

Eratóstenes nasceu em Cirene, na Grécia, por volta do ano 276 a.C., e estudou na cidade natal, em Alexandria e Atenas. De sua extensa produção intelectual sobressaem a medição do meridiano terrestre e o método prático de determinação dos números primos, conhecido como crivo de Eratóstenes. Para medir o meridiano terrestre, Eratóstenes baseou-se na observação da posição do Sol em Alexandria e Siena (hoje Assuã), situadas sobre o mesmo meridiano mas em latitudes diferentes. Sabendo que a distância entre as duas cidades era de cinco mil estádios egípcios, relacionou essa medida com as posições ocupadas pelo Sol, num mesmo instante, em cada uma delas e concluiu que equivalia a 1/50 do meridiano terrestre. Considerando os meios rudimentares de que dispunha, o erro foi muito pequeno.

O crivo de Eratóstenes, reproduzido em quase todos os tratados de matemática conhecidos desde a antiguidade, é o método que permite construir uma tabela de números primos tão extensa quanto se queira. Consiste em escrever a sucessão dos números inteiros a partir de 2 e depois eliminar, sucessivamente, os múltiplos de 2, 3, 5 etc. Eratóstenes morreu em Alexandria, por volta de 194 a.C.

Arquimedes

Arquimedes nasceu em Siracusa, na Sicília, em 287 a.C., no século posterior a Euclides, tendo sido contemporâneo de Apolônio de Perga. Estudos históricos indicam que ele estudou na juventude com os discípulos de Euclides, em Alexandria, uma vez que mostra conhecer os desenvolvimentos matemáticos ali ensinados além de conhecer pessoalmente os matemáticos que lá trabalhavam, trocando com eles correspondência técnica e pessoal. No prefácio de seu livro Sobre as Espirais ele relata que tinha o hábito de enviar para os amigos de Alexandria os seus últimos teoremas, sem enviar as respectivas demonstrações. Alguns destes matemáticos teriam alegado serem deles estes teoremas. Arquimedes conta que, em uma última ocasião, teria enviado dois resultados falsos entre outros “de forma que aqueles que alegam terem descoberto todas as coisas sem produzir as provas podem ser desmascarados pela pretensão de descobrir o impossível.”

As inúmeras referências feitas a Arquimedes em sua época não se devem a uma renovação do interesse na matemática, e sim porque ele inventou muitas máquinas, algumas delas usadas na guerra. Estas máquinas foram muito eficazes na defesa de Siracusa quando do ataque romano, em 212 a.C.. Um exemplo de máquina que ele inventou é o parafuso de Arquimedes, um tipo de bomba d’água ainda em uso em algumas partes do mundo. Outras de suas idéias consistem no uso das roldanas duplas e das alavancas. Segundo Plutarco, Arquimedes se gabava de que “dada uma força ele poderia mover um objeto de qualquer peso, e mesmo, se houvesse outra Terra, ele a poderia remover pelo mesmo procedimento”. O rei Heron, amigo e parente de Arquimedes, pediu para ver uma demonstração prática, o que ele fez movendo grandes pesos com máquinas pequenas.

Arquimedes, apesar do renome adquirido por meio de suas invenções mecânicas, acreditava que a matemática pura era o único objeto válido de pesquisa. Nas palavras de Plutarco ele utilizava métodos práticos para descobrir resultados geométricos, “colocando sua afeição e ambição na especulação mais pura onde não há lugar para as necessidades vulgares da vida”.

As conquistas de Arquimedes foram consideradas extraordinárias e muitos historiadores o tinham como o maior matemático de seu tempo. Ele aperfeiçoou um método de cálculo de áreas de superfícies e de volumes denominado método da exaustão, um aprimoramento das técnicas desenvolvidas antes por Eudoxo e Menaechmo, e precursor das técnicas de integração desenvolvidas mais tarde por Kepler, Cavalieri, Fermat, Newton e Leibniz. Para calcular áreas de figuras de formas arbitrárias eles usou o método de as dividir em fatias estreitas, para então calcular a área de cada fatia usando a técnica desenvolvida por Eudoxo e Menaechmo.

Muitos foram os temas da matemática e suas aplicações abordados por Arquimedes, e diversos de seus livros foram preservados, entre eles:

  1. Sobre a esfera e o cilindro, onde Arquimedes mostra que a área da superfície da esfera é 4 vezes a área de um disco de mesmo raio, calcula a área da superficie de qualquer calota esférica, mostra que o volume da esfera é \(\frac{2}{3}\) do volume de um cilindro circunscrito na esfera, incluindo suas bases. Ele também mostra como cortar uma esfera por um plano de forma que os volumes de cada parte satisfaçam uma razão dada.
  2. Sobre conóides e esferóides, um estudo sobre os volumes dos sólidos hoje chamados de elipsóides, parabolóides e hiperbolóides de revolução, e segmentos destas figuras.
  3. Sobre as espirais, onde Arquimedes define a espiral (hoje denominada espiral de Arquimedes) através da propriedade que relaciona a distância da curva até a origem e o ângulo de revolução, e calcula áreas de segmentos desta espiral ligados por secantes.
  4. Sobre a medida do círculo, contendo três proposições voltadas para a solução do problema clássico da quadratura do círculo. Arquimedes mostra que o valor exato de πestá situado entre 310/71 e 31/7, resultado que ele obteve calculando a área de polígonos de 96 lados, inscritos e circunscritos na circunferência.
  5. Quadratura da parábola, onde aparece o primeiro exemplo de quadratura de uma parábola, ou seja, da determinação de um quadrado com área igual à de uma figura plana limitada por uma parábola e uma secante ligando dois de seus pontos.
  6. O Arenário, onde se propõe um sistema de numeração que permite o cálculo de grandes quantidades, até \(8 ×10^63\) na notação moderna. Ele argumenta que este número é suficiente para contar o número de grãos de areia que poderiam estar contidos no universo. Este tratado tem importância histórica pois descreve o sistema heliocêntrico devido a Aristarco de Samos, usando este sistema para calcular o raio do universo.
  7. Do equilíbrio dos planos, um tratado sobre a aplicação dos princípios geométricos aos problemas da mecânica. Nele se encontra o centro de gravidade do paralelograma, do trapézio, do triângulo e da figura limitada por segmentos de parábolas e suas secantes.
  8. Sobre corpos flutuantes, uma obra contendo os fundamentos da hidrostática, onde se encontra a exposição do Princípio de Arquimedes. Ele também estuda a estabilidade de corpos flutuantes de formas e centros de gravidade diversos.
  9. Sobre o método, relativo aos teoremas mecânicos. Neste texto aparece um tratamento do método da exaustão que o aproxima muito da tratamento moderno das técnicas modernas de integração.

Também existem referências a obras que foram perdidas. Papus faz referência a uma obra sobre poliedros semi-regulares e outro sobre o equilíbrio e alavancas. O próprio Arquimedes se refere a uma trabalho seu voltado para o estudo dos sistema numérico proposto em O Arenário. Teon menciona um tratado sobre espelhos.

Arquimedes foi morto em 212 a.C. por um soldado durante a captura de Siracusa pelos romanos, na Segunda Guerra Púnica, apesar da recomendação dos oficiais para que o sábio fosse preservado. Segundo uma versão ele estaria absorto em problemas de geometria e não teria sequer percebido a situação de perigo, se recusando a seguir o soldado e tendo sido morto por isto. Arquimedes considerava como sua realização mais importante o cálculo das áreas e volumes da esfera e de um cilindro circunscrito. Por isto pediu que uma representação da esfera e do cilindro fosse estampada na lápide, em seu túmulo. O historiador Cícero descreve que foi capaz de identificar o túmulo na Sicília, em 75 d.C., devido a esta inscrição.

Heron de Alexandria

Heron viveu em Alexandria, provavelmente no primeiro século da era cristã, tendo feito contribuições para a geometria e mecânica. Ele é especialmente conhecido pela fórmula que leva seu nome e se aplica ao cálculo da área do triângulo: se os lados de um triângulo são \(a\), \(b\) e \(c\) então a área do triângulo é \(A\) satisfazendo
$$A^2 = s(s−a)(s−b)(s−c).$$
onde definimos \(s = (a+b+c)/2\).

Seu texto mais importante sobre a geometria, Metrica, somente foi redescoberto em 1896 e traz fórmulas para o cálculo de áreas de figuras geométricas regulares de 3 a 12 lados, círculos e seus segmentos, elipses e segmentos parabólicos, além das superfícies de cilindros, cones, esferas e calotas esféricas. Ele também apresenta um método para o cálculo aproximado de raízes quadradas e cúbicas de um número.

Heron fez contribuições importantes no campo da astronomia, que ele descreve em sua obra Dioptra, onde descreve o funcionamento de um teodolito, um instrumento usado para a medida de ângulos. No mesmo texto Heron fornece um método de cálculo da distância entre Alexandria e Roma usando a diferença da hora local no momento em que um eclipse é observado nas duas cidades. Sobre a óptica Heron explicou os fundamentos da propagação retilínea da luz e a lei da reflexão. Ele acreditava que a visão era o resultado de uma emissão de raios de luz pelos olhos e que a luz viajava com velocidade infinita. Em seus trabalhos sobre a mecânica ele descreve os princípios de funcionamento de sua máquina a vapor e sugere métodos de construção de máquinas de guerra e Mecânica.

Em outro livro Heron indica como construir bonecos animados, jarras que derramam água e vinho separadamente ou em proporção constante, pássaros cantores e animais que bebem água. Alguns estudiosos acreditam que ele usava estes artifícios para ensinar física para seus estudantes, tentando mostrar que teorias científicas são relevantes na vida cotodiana. Ele também descreve sua máquina a vapor, o aeolopito, uma esfera que podia ser aquecida e que rodava espelindo vapor. O aeolopito é a primeira máquina que se conhece capaz de transformar o calor em movimento.

Diofanto de Alexandria (200 – 284 d.C.)

Diofanto viveu em Alexandria no século III da era cristã e muito pouco se sabe sobre sua vida. Verdadeiro precursor da moderna teoria dos números e das técnicas da álgebra, Diofanto foi o primeiro a usar símbolos na resolução dos problemas algébricos.

Para lidar com a deficiência na notação de sua época Diofanto introduziu o uso de notação abreviada para representar quantidades desconhecidas e suas potências. No entanto só uma incógnita era assim representada. No caso da existência de outras incógnitas elas eram mencionadas por extenso como “segunda, terceira incógnita”, etc. Para indicar a soma de dois ou mais termos ele adotava o processo de escrevê-los em sucessão, sem qualquer sinal interposto; a subtração era indicada por uma abreviatura da palavra leípsis, que em grego significa “termo negativo” ou “menos”.

Diofanto expôs uma série de soluções que despertaram interesse entre os árabes. Uma delas passou à história da matemática graças a Pierre de Fermat, no século XVII. É o problema expresso pela equação \(x^n + y^n = z^n\). Diofanto demonstrou que para [/latex]n = 2[/latex] existem infinitas soluções. Fermat, ao retomar o problema, estabeleceu o famoso último teorema de Fermat, segundo o qual a equação não tem solução em números inteiros quando n é maior que 2.

Em seu trabalho Diafanto trata da solução de equações lineares e quadráticas, considerando apenas as soluções positivas e racionais, considerando inúteis as equações que levavam a soluções negativas ou irracionais. A equação \(4x + 20 = 4\), por exemplo, é considerada absurda porque leva a “resposta sem significado”. Além disto não há evidência de que conhecesse a existência de duas soluções para uma equação quadrática. Diofanto estudou equações quadráticas divididas em três tipos: \(ax^2 + bx = c\), \(ax^2 = bx+c\) e \(ax^2 + c = bx\). O motivo para esta separação, que hoje consideraríamos desnecessária, está na ausência de um sinal para representar o zero e para evitar os coeficientes negativos.

Diofanto resolveu problemas tais como pares de quadráticas simultâneas e outros sistemas. Considere, por exemplo, o sistema
$$y + z = 10, \qquad yz = 9.$$
Ele resolveria este problema criando uma única quadrática, criando uma nova variável \(x\) e fazendo \(2x = y−z\). Primeiro somando \(y + z = 10\) e \(y−z = 2x\), e depois subtraindo temos, respectivamente \(y=5+x\) e \(z=5−x\). Portanto
$$9 = yz = (5+x)(5−x) = 25 − x^2 \to x^2 = 16; x=4$$,
o que nos leva à solução \(y = 9\) e \(z = 1\).

Aparentemente Diofanto conhecia o fato de que qualquer número pode ser escrito como a soma de quatro quadrados, um fato extraordinário uma vez que Fermat tentou, sem sucesso, provar este resultado, algo só realizado por Lagrange muito mais tarde.

Dos 13 livros de sua famosa Aritmética, sete desapareceram. Também se atribui a Diafanto os livros Números poligonais, Porismos e Moriástica (um trabalho sobre frações). Segundo a tradição, em seu túmulo estava gravado um enigma matemático cuja solução revelava que ele viveu 84 anos:

“… sua infância durou 1/6 de sua vida; se casou 1/7 da vida, depois; sua barba cresceu depois de transcorridos 1/12 mais e seu filho nasceu 5 anos mais tarde; o filho alcançou apenas a metade da vida do pai, que morreu 4 anos depois de seu filho”.

Matemática aplicada na Grécia

No período inicial o sistema de numeração grego não trouxe grandes aperfeiçoamentos em relação ao egípcio e, em particular, ao babilônico. Os gregos não utilizavam a notação posicional já conhecida na mesopotâmia. Apesar disto, devido à vasta influência grega na cultura ocidental posterior, vários prefixos de numeração, tais como penta (representando cinco), deca (dez), hecaton (cem) e quilo (mil) se conservam até os dias de hoje.

Juntamente com os avanços na matemática pura muitos progressos foram feitos sobre suas aplicações, particularmente aos tópicos da ótica, mecânica e astronomia. A maioria dos autores e grandes matemáticos também se dedicou à algum tópico de suas aplicações. Por exemplo, Euclides e Arquimedes escreveram sobre astronomia. Logo após o tempo de Apolônio os astrônomos gregos adaptaram o sistema de numeração fracionária dos babilônios e criaram tabelas de arcos de circunferências. Dado um círculo de raio fixo estas tabelas listavam os valores do comprimento de arco para incrementos do ângulo subentendido, representando assim o equivalente antigo das modernas tabelas trigonométricas. Nas tabelas mais antigas, tal como a de Hiparco, em torno de 150 a.C., os ângulos eram listados em incrementos de 71, variando de 0 até 180. Até o século II a.C. a técnica numérica grega havia avançado ao ponto de permitir que Ptolomeu, em seu Almagesto, apresentasse tabelas de arcos de círculos para ângulos com incrementos de 3, com precisão de cinco casas decimais e apresentados em numeração sexagesimal.

Na mesma época o astrônomo Menelau de Alexandria desenvolveu um método para a solução de problemas involvendo triângulos planos apresentou algumas soluções associadas à trigonometria esférica. Os avanções astronômicos na Grécia permaneceram insuperados até o resurgimento do interesse científico na Europa, após a Idade das Trevas, particularmente através dos trabalhos de Johannes Kepler, Copérnico e Galileu.

Bibliografia

  • Boyer, Carl; História da Matemática, Edgard Blucher, São Paulo, 1996.
  • Cornford, F. M.: Principium Sapientae, As Origens do Pensamento Filosófico Grego, Fundação Calouste Gulbenkian, Lisboa, 1952.
  • Courant, R; Robbins H.: O Que é a Matemática?, Ciência Moderna, Rio de Janeiro 2000.
  • Eves, Howard; Introdução à História da Matemática, Editora Unicamp, Campinas, 2004.
  • Maciel Jr., A.: Pré-Socráticos, A Invenção da Razão, Coleção Imortais da Ciência, Ed. Odysseus, São Paulo, 2003.
  • Singh, Simon; O Último Teorema de Fermat, Editora Record, São Paulo, 1999.
  • O Connor, J. J.; Robertson E. F. : Artigo Internet
    http://www-history.mcs.st-and.ac.uk/history/
  • Encyclopaedia Britannica do Brasil Publicações Ltda.

Desafios e Quebra-Cabeças

Encontre a Jóia Falsa

Você tem em mãos 5 pedras do mesmo tamanho. Todas são diamantes, exceto uma delas, constituída de material mais leve. Você tem uma balança de pratos (que apenas serve para comprarar pesos) e deve decidir qual é a pedra falsa fazendo apenas 2 pesagens.

Mais uma na Balança

Você recebe um carregamento de 10 caixas. Em cada caixa há 10 objetos de peso igual e conhecido, exceto por uma delas onde, por defeito na fabricação, todos os objetos pesam, cada um, 1kg a mais que os das outras caixas. O único instrumento disponível é uma balança graduada (é possível ler o peso em kg) e você só pode fazer uma única medida. Como descobrir a caixa com os objetos defeituosos?

A Distância mais Curta

Figura 1

Dados dois pontos A e B que estão do mesmo lado de uma reta r e não são pontos desta reta, qual é o caminho mais curto ligando A e B e que toca a reta r, (figura 1)?

Gauss e a soma dos 100 primeiros inteiros

Conta-se que Gauss teria encontrado a soma dos 100 primeiros inteiros em 30 segundos, na escola primária. Seu professor, aborrecido com a algazarra que faziam as crianças, teria mandado que todos calculassem esta soma e Gauss apresentou a resposta rapidamente. Esta é, na verdade, uma operação que pode ser feita de cabeça se você tiver a criatividade de Gauss …

Universo e Multiverso

De rerum natura
Página de abertura de cópia manuscrita em 1483 do De Rerum Natura

A palavra universo é derivada do Latim universum, originada da contração poética Unvorsum usada por Lucrécio em seu livro De rerum natura (Sobre a natureza das coisas). Ela combina o prefixo uni (um) com vorsum que significa “o que se moveu, girou ou se alterou”. O imagem do todo se movendo como unidade em círculos tem raiz no pensamento grego antigo que visualizava as estrelas e objetos celestes fixos sobre esferas girando em torno do observador humano.

A descrição moderna do universo e sua história é baseada principalmente na Teoria da Relatividade Geral (TRG) de Einstein que descreve a gravitação por meio da curvatura do espaço-tempo. Em escalas cósmicas a gravitação é a única força relevante e a TRG é a ferramenta apropriada para descrever o universo como um todo. Sob a restrição de algumas hipóteses básicas, tais como a de ser a matéria uniformemente distribuída pelo espaço em grande escala, a teoria indica que o universo não pode ser estático – ele deve estar se contraindo ou expandindo. A verificação observacional desta afirmação se deu com a descoberta de Edwin Hubble, em 1029, de que todas as galáxias, exceto aquelas que estão muito próximas da nossa, estão se afastando e a velocidade de afastamento é proporcional à sua distância. As medidas da velocidade de afastamento permitem calcular a quanto tempo toda a matéria e energia estavam condensadas em um volume muito pequeno, denominado de Big Bang ou Grande Explosão, o que ocorreu a aproximadamente 14 bilhões de anos. As hipóteses iniciais, a distribuição uniforme da matéria por exemplo, são verificadas com alto grau de precisão e o modelo ganhou o título de Modelo Padrão por explicar grande número de características hoje observadas.

Embora eficiente para explicar muitas coisas observadas ele não é completo. Não é possível, por exemplo, explicar porque a matéria, a energia e a temperatura estão distribuídas de forma tão uniforme pelo espaço. Não existe uma explicação natural do porque a explosão ocorreu em um determinado momento e nem de onde vem toda a energia necessária para provocar o surgimento de tudo o que vemos hoje. Além disto, entre outros problemas, não temos indicações do motivo de serem as constantes da física finamente ajustadas como são, o suficiente para permitir o surgimento da matéria como a conhecemos e a evolução hoje verificada.

Para descrever o conteúdo material deste universo é necessário lançar mão das teorias existentes da matéria, em particular a teoria quântica das partículas e campos. Estes campos serviram para explicar uma expansão muito rápida em um universo jovem (dentro do primeiro segundo após o Big Bang), no que consiste o modelo inflacionário. A rápida expansão tem o efeito de explicar a homogeneidade, além de estar em plena conformidade com a descrição de como pequenas ondulações ou desvios desta homogeneidade deram origem às grandes estruturas, galáxias e aglomerados. A energia escura foi adicionada mais tarde, sem uma motivação ou esclarecimento teórico mais profundo, mas necessária para explicar a aceleração hoje observada.

Apesar de que, por definição, a palavra Universo expresse um conceito que engloba todas as coisas que existem, em algumas situações surgem na física propostas de inclusão da existência de partes do Universo ou mesmo de outros Universos que poderiam não estão em conexão direta com a nossa realidade. Muitas destas propostas visam corrigir os defeitos do modelo cosmológico padrão. Observe, entretanto, que o conceito de multiversos é altamente especulativo e não deve ser tomado como parte integrante das teorias testadas e aceitas pela comunidade científica.

É importante compreender que a ciência lida com objetos que podem ser verificados por meio da experimentação ou da observação. Qualquer afirmação, esteja ela correta ou não, que não possa ser refutada ou confirmada permanece fora da fronteira do que se pode considerar científico. Desta forma a afirmação de que existem universos paralelos que não interferem em nada com o universo observável constitui uma proposta metafísica ou filosófica até que a sua verificação possa ser efetuada. Esta é a posição de muitos pesquisadores atuais, entre eles o físico inglês Paul Davies, atualmente professor na Universidade do Arizona, que afirmou: “Explicações radicais sobre o multiverso são uma reminiscência de discussões teológicas”.

(1) Como todo sinal ou interação entre partículas se dá, no máximo, com a velocidade finita da luz, dois objetos podem estar separados de tal forma que um não poderá jamais interagir com o outro, causando nele qualquer alteração. Estas são as chamadas separações tipo-espaço. Nada do que ocorre em uma região deste tipo pode ser percebido por nós.

No entanto, mesmo modelos do universo bastante conservadores podem incluir regiões desconectadas umas das outras. Até mesmo em um universo simples que satisfaz apenas à Relatividade Restrita, um mundo sem curvaturas nem dimensões extraordinárias, existem regiões causalmente desconectadas1. O cosmólogo sueco Max Tegmark, professor do Instituto de Tecnologia de Massachussets, preparou uma classificação de teorias que incluem universos com partes ou setores fora do alcance de nosso universo observável. Fazem parte deste grupo de hipóteses os modelos inflacionários onde pequenas regiões do espaço poderiam entrar em uma rápida expansão causada por campos quânticos locais formando novos universos como bolhas desconectadas do universo matriz. Estas bolhas possuem interesse teórico por permitirem a possibilidade da existência de muitos universos, cada um contendo valores diferentes para as diversas constantes cujos valores não podem ser ainda explicadas pela física. Entre muitos universos o nosso seria aquele onde as constantes são exatamente ajustadas para permitir surgimento da matéria e sua evolução em elementos de números atômicos crescentes, depois para o surgimento da vida e, finalmente, da consciência.

Outra possibilidade de multiversos é encontrada em modelos cíclicos, com a possibilidade de nosso universo interromper sua expansão e entrar em fase de contração, seguida de colapso e uma eventual nova explosão, em ciclos eternos. Este modelo esbarra na verificação recente de que o universo atual não está em processo de desaceleração e sim de expansão acelerada.

Um multiverso diferente mas igualmente intrigante é sugerido por uma curiosa interpretação da física quântica chamada interpretação de muitos mundos, uma das diversas tentativas de se encontrar a explicação por trás do mecanismo probabilístico no mundo quântico. Resumidamente este modelo sugere que os vários resultados possíveis de um experimento ocorrem em mundos diferentes. Um exemplo pode esclarecer a questão: o spin de um elétron é uma propriedade quântica que ocorre em dois estados, geralmente denominados para baixo e para cima (up e down). Antes de medir um spin não se sabe em que estado ele se encontra. Se uma medida é realizada verificamos que ele se encontra em um dos estados, digamos, com o spin para cima. Na interpretação de muitos mundos existe um outro universo onde o elétron está com o spin para baixo e a nossa medida teria provocado a escolha por um dos mundos possíveis.

Neil Turok

O conceito de multiverso ganhou um impulso importante na década de 2000 com a proposta de Paul Steinhardt, professor de astrofísica na Universidade de Princeton, e Neil Turok, professor de física matemática em Cambridge. Steinhardt e Turok buscavam explicar as características atuais observadas, principalmente a homogeneidade e a ação de energia e matéria escuras. Eles sugeriram um universo eterno e cíclico sem a necessidade da contração e colapso do universo atual.
O modelo matemático proposto é complexo mas fornece imagens interessantes. O universo seria composto por duas folhas paralelas e infinitas separadas por uma distância microscópica. Em uma das folhas está o espaço-tempo onde vivemos. A separação entre elas se dá em uma dimensão extra que não podemos ver nem testar experimentalmente com a tecnologia hoje existente. As folhas estão se expandindo em acordo com o modelo padrão. A temperatura ou densidade de matéria nunca seriam infinitas como sugere o modelo padrão. Em cada um dos ciclos o universo se inicia com uma explosão, com alta densidade de matéria-radiação e atravessa um período de expansão e resfriamento similares ao que ocorre no modelo padrão e que explica muitas características hoje observadas. Este modelo substitui a energia escura e o campo inflacionário por um único campo que oscila de forma a provocar a expansão e, mais tarde, sua desaceleração. Por isso ele requer menor quantidade de hipóteses, o que é visto como algo positivo pela mentalidade científica. Ele combina conceitos físicos bem estabelecidos com outros que são teoricamente bem aceitos mas ainda não verificados na observação, tais como a teoria das cordas e membranas, ambas destinadas a solucionar o problema da unificação entre o campo gravitacional e os demais campos.

(2) A decaimento da energia armazenada em um campo sob forma de matéria ou radiação é previsto na Relatividade Especial, e é dada pela equação E = mc2.

Quando o universo atinge aproximadamente a idade atual, 14 bilhões de anos após a explosão, a expansão é acelerada. Isto resolveria um dos principais problemas do modelo padrão onde um universo constituído apenas de matéria comum só poderia se desacelerar, uma vez que a gravitação é apenas atrativa e cada galáxia atrai todas as demais, contrariamente ao que hoje se observa. Trilhões de anos mais tarde o universo com o mesmo conteúdo de matéria-energia tem um volume muito grande e, por isto, baixa densidade e temperatura, e a expansão é interrompida. Neste ponto, segundo o modelo, um campo de energia que existe por todo o universo decai2 sob a forma de matéria e radiação, dando origem a um novo big-bang e um novo ciclo dai decorrente. As folhas interromperão sua expansão e começarão a se aproximar uma da outra com o colapso da quinta dimensão (que começará a se encolher). Elas entram em colisão de forma não completamente homogênea, uma vez que as oscilações quânticas provocam ondulações no espaço, e se repelirão, como se rebatidas ou quicadas, um efeito também quântico. O impacto da colisão transferirá sua energia para preencher mais uma vez o espaço com a matéria-energia quente e densa, em um novo Big Bang. A explosão provoca a retomada da expansão e um novo ciclo de resfriamento, aglutinação de estrelas e galáxias e formação de um novo universo similar ao atual.

O modelo Steinhardt e Turok

Não é fácil compreender o significado da expansão do espaço-tempo. Se for infinito ele não fica maior mas a separação entre pontos deste espaço é crescente, o que é percebido pelo afastamento das galáxias. As folhas ou membranas não são universos paralelos, como propõem outro grupo de teorias. Elas são partes de um mesmo universo, uma delas contendo a matéria comum que conhecemos e a outra com conteúdo que permanece, por enquanto, desconhecido. As duas folhas interagem apenas por meio da gravidade, objetos com massa em uma folha atraindo a matéria que se encontra na outra, algo que poderá vir a ser uma explicação para a presença da matéria escura, cujo efeito sobre a matéria comum é observado no universo atual e modifica o movimento dos objetos celestes.

Alguns pesquisadores consideram este modelo um avanço por ele fornecer respostas, ou pelo menos indicações de respostas, para problemas não resolvidos no modelo padrão. No panorama atual não há qualquer indicação sobre o que existia antes da Grande Explosão, sobre o que deu origem à matéria hoje observada, ou porque e como o campo primordial entrou em relaxamento cedendo sua energia para a formação da matéria. Além disto o modelo reproduz corretamente a descrição padrão no intervalo de tempo entre o Big Bang e o presente. Mas ainda não se pode concluir que suas demais previsões estejam corretas. Ele permanece como uma conjectura bastante especulativa, mas uma possibilidade que pode um dia ser comprovada ou levar à novos paradigmas do entendimento.

(3) Para uma diferenciação entre modelos, teorias especulativas e teorias comprovadas leia Teoria, Hipótese e Modelo em Física.

Historicamente os grandes avanços proporcionados pelo sucesso teórico de Einstein levaram muito estudiosos a investir tempo e esforço em propostas especulativas, muitas vezes distanciadas do observado e que permanecem muitos anos sem serem verificadas ou descartadas. Infelizmente a divulgação científica em nosso país é deficiente e notícias sobre modelos especulativos, como o de Turok, acabam por criar confusão para aqueles que buscam se informar sobre ciência moderna. A especulação é válida, interessante e pode ensinar muito sobre o avanço científico. No entanto, divulgadores e leitores devem manter em mente uma clara distinção entre as abordagens especulativas e o conteúdo científico verificado e aceito3.

Resta aos proponentes deste modelo aperfeiçoá-lo e extrair dele novos comportamentos que possam ser observados e que não são explicados por nenhuma das demais teorias candidatas. O fato de que existe um modelo matemático internamente consistente é uma boa motivação para que novos pesquisadores se dediquem a aprofundar o entendimento deste modelo, refazendo alguns aspectos e explorando suas consequências. No entanto a consistência lógica e matemática não é suficiente. Ela deve ser extendida para o domínio da verificação empírica antes que esta seja considerada uma teoria física aceita. E aos pesquisadores motivados e entusiasmados com seus próprios projetos de deve pedir que saibam diferenciar, para o grande público, a especulação da teoria aceita.

 

O modelo ou hipóteses aqui descritos são, até o momento, especulativos, tentativas de se explicar diversos problemas no modelo do Big Bang padrão.

Para uma diferenciação entre modelos, teorias especulativas e teorias comprovadas e aceitas leia: Teoria, Hipótese e Modelo em Física.Leia mais sobre cosmologia.

É importante compreender que a ciência lida com objetos que podem ser verificados por meio da experimentação ou da observação. Devemos acreditar na ciência?

 

Problemas com o Modelo Padrão

O modelo do Big Bang é uma consequência da Teoria da Relatividade Geral, TRG, sob a hipótese de que o universo é homogêneo e isotrópico(1). Este modelo é bem sucedido em explicar características observadas, em especial o afastamento das galáxias descoberto por Edwin Hubble e a radiação de fundo na faixa de microondas. Vale enfatizar que, neste quadro, o universo não existiu sempre, tendo passado por um momento específico a aproximadamente 14 bilhões de anos. A pergunta sobre o que existia antes do Big Bang não possui qualquer significado, da mesma forma que uma pessoa postada sobre o pólo norte não pode prosseguir caminhando em direção ao norte.

Deep Field: Imagem obtida pelo Hubble Space Telescope

No entanto ela introduz um número de problemas ainda não resolvidos, entre eles o motivo para que o universo esteja tão perto de sua densidade crítica (ou porque ele é hoje um universo plano), de como ele alcançou a homogeneidade hoje verificada embora não exista a possibilidade de contato entre regiões causalmente separadas, ou mesmo sobre o que teria motivado a própria explosão inicial. Existe razoável consenso entre os pesquisadores da área de que a TRG, que é a estrutura matemática por trás da descrição do espaço-tempo, não é uma boa teoria para a descrição dos estados que ocorreram logo após o big bang quando matéria e energia se encontravam em estado de alta densidade e a temperatura era muito elevada. É muito provável que uma descrição quântica da gravitação seja necessária para uma descrição apropriada deste período. Esta descrição, pelo menos por enquanto, não existe.

(1) Homogeneidade é a propriedade do espaço de ser basicamente, pelo menos em média para grande escalas, independente do ponto onde se olha. As diversas partes do universo possuem a mesma densidade de matéria e radiação. Isotropia é a invariância destas propriedades com relação à direção. O universo é idêntico, para todos os lados que se olhe. Esta homogeneidade e isotropia não ocorrem em todas as escalas. No nível das galáxias, por exemplo, a matéria está concentrada nestas galáxias, que são muito mais densas no núcleo do que em suas bordas. Além disto as galáxias estão separadas entre si por grandes distâncias. Em níveis maiores elas tendem a se agrupar em aglomerados galáticos e, portanto, também não existe homogeneidade nesta escala. A homogeneidade aparece em escala muito maiores e isto pode ser verificado através de correlações entre distribuição e escala ou através de medições feitas sobre a radiação cósmica de fundo. Leia mais sobre o modelo padrão do Big Bang ou sobre a radiação cósmica de fundo.
(2) Na natureza existem apenas quatro campos identificados: o campo gravitacional, campo eletromagnético, campo nuclear fraco e campo nuclear forte. É possível hoje mostrar que, em altas temperaturas (portanto altas energias), tais como as encontradas logo após o big bang, estes campos, exceto o gravitacional, se tornam unificados e a teoria quântica de campo é o embasamento teórico para esta unificação. A teoria quântica de campo não faz nenhum uso de alterações na geometria do espaço como a TRG mas explica as interações entre partículas subatômicas por meio de trocas de partículas virtuais. (3) Em breve publicaremos neste site um artigo exclusivamente sobre a constante cosmológica e sua história.

A TRG explica a gravitação em termos de modificações na curvatura do espaço-tempo causadas pela presença de matéria-energia. A teoria é elegante, matematicamente consistente e verificada experimentalmente em todos os tipos de experimentos e observações possíveis até o presente.

Por outro lado houve também um grande avanço na explicação dos demais campos de força2. Na década de 1980 foi proposto o modelo inflacionário que se utiliza de campos quânticos para promover um crescimento muito rápido no universo inicial. Considera-se hoje que a inflação é a responsável pela explosão e explica algumas características hoje observadas, tais como porque o universo se encontra tão próximo da densidade crítica e porque é tão homogêneo. Além disto as pequenas distorções ou inomogeneidades observadas na radiação cósmica de fundo são compatíveis, dentro do panorama da inflação, com a formação de galáxias e grandes estruturas como aglomerados galáticos. Independente do sucesso ou não deste modelo é necessário incluir a presença de campos quânticos e a provável existência de uma constante cosmológica, tal como proposta por Einstein ou alguma alternativa na forma de termos cosmológicos variáveis com o tempo. De fato tornou-se um problema adicional a explicação de como o universo sai da fase inflacionária e existem evidências observacionais de que ainda existe, mesmo no presente, uma pressão para a expansão, o que poderia ser explicado pela presença de uma constante cosmológica3.

Representação artística de um buraco negro: uma região de altíssima
curvatura no espaço-tempo, de onde nem a luz consegue escapar

O fato de que a TRG prevê seu próprio fracasso em algumas regiões do espaço tempo, dentro das chamadas singularidades representadas por buracos negros ou pelo própio Big Bang, é suficiente para que se investigue uma descrição alternativa, provavelmente uma extensão, no mesmo sentido em que a teoria da relatividade especial é uma extensão da mecânica clássica e a relatividade geral é uma extensão da especial. Além disto a existência de teorias reconhecidamente eficientes para a explicação da natureza dentro de seus respectivos domínios mas inconsistentes entre si em um domínio comum, tal como ocorre com a teoria quântica de campos e a teoria da gravitação, impulsiona a busca de uma nova teoria. Como se acredita que esta teoria deve incorporar características da física quântica ela tem recebido o nome de Gravitação Quântica, GQ.

Perturbações em escalas de 10-33 cm nos campos e na densidade de partículas faz com que o espaço-tempo tenha uma natureza de “espuma” nesta escala.

Um raciocínio simples aponta para a necessidade de uma descrição especial para a gravitação ou para o espaço tempo em níveis microscópicos. Suponha que estamos analisando uma região vazia do espaço-tempo onde nenhuma matéria ou energia tenham sido detectadas. Temos neste caso um espaço plano, matematicamente denominado espaço-tempo de Minkovsky. Suponha ainda que passamos a analisar este espaço-tempo com microscópios poderosos para compreender o que ocontece com o espaço em escalas muito reduzidas. De acordo com a teoria quântica nenhum dos campos físicos existentes pode ser relaxado ou enfraquecido até um nível completamente nulo. Como todos os osciladores, mecânicos ou não, o nível mínimo de energia não é nulo ou, dito de outra forma, o estado fundamental de qualquer oscilador encontra-se acima do zero. Estes campos carregam energia e portanto devem provocar a curvatura do espaço. Alternativamente se pode imaginar outro quadro: microscopicamente a teoria quântica permite a criação de partículas virtuais acompanhadas de suas antipartículas, desde que elas surjam e se aniquilem rapidamente de modo a não contrariar o princípio da incerteza. Estas partículas carregam massa e energia e portanto curvam o espaço-tempo. Pode-se portanto esperar que o espaço-tempo tenha uma estrura ultra granulada, como se fosse uma espuma de bolhas, em um nível muito pequeno. Esta espuma deve afetar os fenômenos, pelo menos em níveis microscópicos ou de altas energias.

(4) Com o fim da guerra fria ocorreu uma drástica uma diminuição no nível de investimento em pesquisa básica no mundo todo. Os aceleradores estão se tornando cada vez mais caros, só se tornando possível em empreendimentos cooperativos envolvendo diversas nações.

Existem diversas formulações candidatas concorrentes ao título de Gravitação Quântica, GQ. Entre elas está teoria das cordas em suas diversas modalidades, loops (ou laços) ou teorias quânticas não-perturbativas. Além de sua importância em cosmologia se espera dai uma explicação para muitas questões não respondidas, tais como um tratamento mais completo de singularidades, a compreensão de aspectos quânticos dos buracos negros e, possivelmente, sobre a natureza da energia escura. Toda teoria física deve fornecer previsões que podem ser verificadas sob o crivo da experimentação e observação, e estas não são exceções. No entanto as predições testáveis destas teorias ocorrem em regime de altíssimas energias que ainda não podem ser obtidas nos aceleradores de partículas atuais. Por isto existe uma corrida4 para a construção de aceleradores maiores e melhores e eventualmente será possível discernir quais destas teorias, se houver alguma, estão corretas ou não. Outra possibilidade de teste consiste na observação astrofísica de buracos negros, de eventos cósmicos de altas energias e da própria cosmologia.

Além de passar por estes testes uma boa candidata à teoria da GQ deve se resumir à Relatividade Geral no domínio de baixas energias, assim como objetos em velocidades relativísticos passam a ser muito bem descritos quando sua velocidade baixa até um nível muito inferior à velocidade da luz.

Teoria das Cordas, Universos sem um Início

Uma das “teorias”5 tentativas promissoras e muito interessantes para a descrição de uma gravitação quântica, reconciliando a mecânica quântica e a gravitação, tal como descrita pela teoria da relatividade geral, é teoria das cordas ou string theory. A principal motivação para se considerar uma teoria deste tipo é a procura pela chamada Teoria de Tudo (Theory of Everything – TOE), uma forma matemática unificada de descrição da matéria e dos quato campo conhecidos. A teoria das cordas propõe que partículas elemtares, tais como eletrons e quarks, não são objetos pontuais (adimensionais), como são tratados na formulação clássica e mesmo na mecânica quântica padrão, mas sim pequenas cordas oscilantes e vibratórias, objetos unidimensionais. Os primeiros modelos de cordas incluiam apenas bósons, partículas de spin inteiro tais como o fóton e outras partículas que servem de mediadoras entre os campos de força. Mais tarde foram propostos modelos como os de Supercordas onde se pretendia uma supersimetria envolvendo bósons e férmions (elétrons, por exemplo). Curiosamente o tratamento matemático destes modelos envolve a existência de dimensões extras além das quatro dimensões do espaço-tempo usuais. Como estas dimensões extras não são observadas se desenvolveu um mecanismo de compactação destas dimensões que adquirem altas curvaturas e se tornam algo como pequenas bolas anexadas a cada ponto do espaço físico.

(5) Para uma diferenciação entre modelos, teorias especulativas e teorias comprovadas e aceitas leia:
Hipótese, Modelo e Teoria em Física.
A teoria das cordas ou strings parte do pressuposto de que as partículas elementares não são pontos mas sim pequenas cordas.
Imagem modificada à partir de imagem na Wikimedia Commons, sob licensa Creative Commons.

Na década de 1990, em uma tentativa de apresentar um modelo que engloba os diferentes modelos de supercordas existentes, foi proposta a Teoria-M, (M de membrana) onde as cordas são vistas como cortes de membranas vibratórias que existem em 11 dimensões. Alguns físicos consideram que a teoria das cordas e seus aperfeiçoamentos são um passo importante na compreensão da teoria unificada, enquanto outros a criticam por não fornecerem previsões quantitativas suficientes para que possam ser comprovadas ou descartadas pela experimentação.

Apesar de parecer excessivamente especulativo o conceito de cordas carrega consigo alguns aspectos interessantes. Para entender isto podemos considerar um mero eletron como partícula pontual. Na descrição usual de partícula seu campo gravitacional e elétrico ambos são proporcionais a 1/r2 sendo portanto singulares em r=0 (assumem valores que tendem a infinito quando r tende a zero). Em outras palavras tanto o campo gravitacional quanto o elétrico tendem a infinito nas proximidades do eletron que carrega, portanto, infinita energia! Esta dificuldade é removida se sua massa e carga (e outras propriedades) estão distribuídas ao longo de uma corda ou membrana.

A falta de comprovação, no entanto, não impede que muitos cosmólogos apliquem os conceitos das cordas em seus modelos cosmológicos, obtendo alguns resultados interessantes apesar de altamente especulativos. Um exemplo disto esta descrito no artigo Modelo de Steinhardt e Turok.



Desvio para o vermelho e a lei de Hubble

O desvio para o vermelho (redshift) é um fenômeno ótico ocasionado pelo afastamento da fonte de luz e um caso particular do conhecido efeito Doppler. Também pode ocorrer desvios para o vermelho devido a efeitos gravitacionais, um caso que será tratado em outra parte.

Fonte vibratória em movimento

Christian Doppler foi o primeiro a dar uma explicação física para o fenômeno e também a prever que ele ocorre em qualquer tipo de onda, mecânica ou eletromagnética. Foi ele também quem sugeriu que o efeito pudesse ser usado para medir velocidades de objetos celestes.

Para compreender o efeito vamos primeiro nos lembrar do que ocorre quando observamos um carro de corrida se aproximando em alta velocidade. O ronco do motor é mais agudo na aproximação. Depois que o carro passa por nós e se afasta o ronco se torna mais grave. Na aproximação um número maior de frentes de ondas atinge nossos ouvidos por unidade de tempo e interpretamos isto como aumento da frequência (mais agudo). No afastamento um número menor de frente de ondas nos atinge no mesmo tempo, o que interpretamos como diminuição da frequência (mais grave).

A luz vermelha tem a seguinte frequência e comprimento de onda:
4 × 1014 HZ — 7,5 × 10-7m
A luz violeta, no outro extremo do espectro:
7,6 × 1014 HZ — 3,9 × 10-7m

Efeito idêntico ocorre com a luz, que é uma forma de radiação eletromagnética e vai desde o vermelho até o violeta. Um objeto com cor conhecida e que se afasta em alta velocidade tem a sua cor deslocada em direção ao vermelho e medida deste desvio pode ser usada para determinar sua velocidade. Da mesma forma se o objeto se aproxima sua cor é desviada em direção ao azul, ou seja, tem a sua frequência aumentada.

Para medir a velocidade de uma estrela ou galáxia distante é necessário conhecer a cor de alguma radiação emitida por ela e isto é possível devido à mecânica quântica. Os gases contidos em objetos quentes emitem luz em faixas ou cores muito bem definidas que dependem do material de que são compostos. Estes espectros de emissão funcionam como assinaturas específicas de cada elemento, átomo ou molécula e servem para identificá-los na Terra ou nas estrelas. Desta forma foi possível identificar o elemento químico hélio no Sol em 1868, antes que pudesse ser detectado na Terra, uma vez que ele é abundante nas estrelas e raro em nosso planeta.

Linhas de emissão (ou absorção) são deslocadas no espectro
Ainda não se sabia, naquela época, que as nebulosas eram objetos fora de nossa galáxia.

O astrônomo americano Vesto Slipher, em 1912, estudando os espectros observados de nebulosas espiraladas descobriu que as linhas espectrais de elementos conhecidos estavam presentes nas nebulosas mas deslocados de suas posições padrões. Estes deslocamentos foram interpretados como devidos ao afastamentos dos objetos observados.

Desvio para o vermelho provocado pelo afastamento

Mais tarde, em torno de 1919, Edwin Hubble iniciou um projeto de medida de distâncias de nebulosas espiraladas e estrelas conhecidas como cefeidas, usando o telescópio de Hooker de 2,5 m de diâmetro, considerado grande para aquela época. Ele provou que as nebulosas, incluindo Andrômeda, estavam longe demais para fazer parte de nossa galáxia e que eram, de fato, grandes aglomerados de estrelas como a nossa Via Láctea, ou seja, são galáxias como a nossa! Em seguida, combinando o conhecimento das distâncias destas galáxias com o seu desvio para o vermelho Hubble e Humason mostraram que existe uma proporcionalidade: quanto mais distante um objeto celeste mais rápido ele se afasta de nós. Apenas galáxias no nosso grupo local, entre elas a própria Andrômeda, estão se aproximando. Esta observação é compatível com a descoberta teórica feita pelos físicos e matemáticos que exploravam as consequências da Teoria da Relatividade Geral de Einstein e com o modelo cosmológico decorrente, bem como com a observação feita por Penzias e Wilson da radiação cósmica de fundo, na faixa das microondas.

A lei de Hubble é expressa pela equação v = H0D onde H0 é uma constante de proporcionalidade denominada constante de Hubble, D é a distância da galáxia considerada e v é a sua velocidade. A constante de Hubble é frequentemente dada em unidades de (km/s)/Mpc, (quilômetros por segundo) por megaparsec sendo que 1 parsec é, aproximadamente, 31×1012 km ou 3.26 anos-luz.

Uma medida recente da constante de Hubble, realizada pelo Telescópio Espacial Hubble em 2009, fornece o valor de H0 = 74.2 ± 3.6 (km/s)/Mpc. A medida desta constante, juntamente com o modelo padrão da cosmologia, nos leva à conclusão de que o universo tem aproximadamente 14 bilhões de anos!


Por que o céu noturno é Escuro?

Suponha que uma pessoa é curiosa e tem uma mente investigativa mas não dispõe de recursos tecnológicos, tais como grandes telescópios, ou teóricos, como a Teoria da Relatividade Geral de Einstein. Existe alguma maneira pela qual ele perceba que o universo não é simultaneamente infinito e estático?

Este investigador sem recursos sai à noite para observar as estrelas e percebe, como todos sabemos, que o céu éescuro à noite, exceto pelo brilho pontual das estrelas, dos planetas e galáxias. Sabemos ainda, embora o observador sem recursosnão o possa notar, que existe também uma radiação abrangente e uniformemente espalhada pelo espaço, aradiação cósmica de fundo que não é visível por estar na faixa de frequência das microondas. No geral o céu noturno é escuro. Nosso pensador, no entanto, supõe que o universo é infinito e estático e que existe um número enorme de estrelas espalhadas de modo aproximadamente uniforme pelo espaço. Em qualquer direção em que ele olhar para o céu haverá uma estrela uma vez que o universo é infinito (ou muito grande).

Paradoxo de Olber

Figura 1: O volume entre as esferas (representadas na figura pelos círculos verdes) cresce com o quadrado da distância, enquanto o brilho das estrelas decai de modo inversamente proporcional ao quadrado desta distância. Como se partiu da suposição de que a densidade é a mesma, na média, então o número de estrelas é maior na medida em que se afasta do observador. Este número maior compensa o efeito da queda de luminosidade devido à distância.

(1) 1987. Harrison, Edward: Darkness at Night: A Riddle of the Universe, Harvard University Press. ISBN 9780674192706.

É claro que as estrelas mais distantes parecerão ser menos brilhantes mas, por outro lado, haverá um número maior delas para camadas mais distantes, como está ilustrado na figura 1. A intensidade do brilho diminui com o inverso da distância ao quadrado, mas o número de estrelas aumenta proporcionamente com o quadrado da distância de forma que os efeitos se cancelam e o céu noturno deveria ser brilhante, pelo menos com brilho similar ao do disco solar, visto aqui da Terra.
Este é o chamado paradoxo de Olber e foi, na verdade, percebido muito antes de Olber. O astrônomo EdwardHarrison1 descreve que Thomas Digges, matemático e astrônomo inglês, percebeu ainda no século XVI problema do brilho do céu noturno. Digges era um defensor do sistema Copernicano e foi o primeiro asugerir que, além da esfera das “estrelas fixas” havia um espaço infinito e “repleto de estrelas”. Também Kepler descreveu o problema em 1610, embora uma forma mais moderna de compreensãodo mesmo só tenha surgido no século XVIII com o trabalho de Halley e Cheseaux. O astrônomo alemão Heinrich Olber voltou a levantar a questão em 1823 e a tornou mais conhecida, sem ter alcançado uma compreensãode sua solução. Lord Kelvin, segundo Harrison, foi o primeiro a apresentar uma tentativa de solução. Curiosamente o escritor Edgar Allan Poe2, antes de Kelvin, fez uma descrição simples de sua solução.

(2) A citação de Poe, aqui em livre tradução, é uma antecipação da explicação oferecida por Kelvin: “Se houvesse uma sucessão infinita de estrelas o fundo do céu nos pareceria brilhar com luminosidade uniforme, como a exibida na Galáxia – uma vez que não existiria nenhuma direção para a qual se olhasse sem que uma estrela lá estivesse. Portanto a única maneira de compreendermos esta situação, de acomodarmos a noção de que os telescópios podem mostrar grandes vazios em diversas direções, é através da suposição de que as distâncias cósmicas são tão gigantescas que nenhum raio de luz das estrelas distantes foi até agora capaz de nos alcançar.”
Esta não é, infelizmente, uma explicação correta para o suposto paradoxo.

Algumas tentativas de solução foram apresentadas:

  1. o espaço é permeado por grande quantida de poeira que impede a passagem da luz,
  2. existe apenas um número finito de estrelas,
  3. a distribuição das estrelas não é uniforme,
  4. o universo é muito jovem e a luz das estrelas distantes ainda não nos alcançou,
  5. o universo está se expandindo.

A primeira tentiva consiste em supor que existe matéria espalhada pelo espaço e que esta poderia impedir a passagem daluz das estrelas distantes. No entanto, ao absorver luminosidade (que é uma forma de radiação e transporta energia) a poeira se aqueceria a passaria a emitir luz por conta própria. Por outro lado uma quantidade muito grande de poeira obscureceria nosso Sol e poderia ser detectada da Terra, algo que não acontece.

Quanto a segunda resposta, é possível (mas não muito provável) com base no que se conhece hoje que o universo seja finito e exista um número finito de estrelas. No entanto o número de estrelas e outros objetos celestes já conhecidos e catalogados já é suficientemente grande para iluminar o céu noturno.

A discussão da terceira tentativa de explicação do problema é um pouco mais complexa e está discutida com mais detalhe no artigo principal sobre cosmologia. Em resumo, apesar de exibir claramente desvio de uniformidade em escalas menores, como pode ser observado nos sistemas planetários, nas galáxias e mesmo nos agrupamentos galáticos, o universo aparenta ser aproximadamente homogêneo em escalas muito grandes, bem maiores que a de agrupamentos de algumas poucas galáxias! A homogeneidade da radiação cósmica de fundo é outro bom argumento de que o universo é homogêneo em grande escala3.

(3) A radiação cósmica de fundo é bastante uniforme mas não completamente! Pequenos desvios na homogeneidade ou “caroços” em regiões um pouco mais quentes ou mais frias são exatamente o que se deveria esperar à partir das teorias de geração das estruturas, tais como galáxias e grupos de galáxias. Se a matéria-energia primordial fosse completamente homogênea nenhuma estrutura seria formada.

A quarta premissa é um pouco mais complexa e exige um conhecimento matemático um pouco mais detalhado para sua compreensão. Apenas para não deixar de todo a questão sem tratamento, adiantemos algum conteúdo para análise e apreciação! O Big Bang não representa apenas a origem do conteúdo material do cosmos, mas também do espaço e do tempo. De acordo com a Teoria da Relatividade o próprio espaço se expande e o tempo teve um início. Não existia nada antes do início, nem matéria, nem o espaço e nem o próprio tempo. A informação mais antiga que temos da explosão é representada pela radição cósmica de fundo e ela está fria demais para iluminar o céu noturno!

O Universo Observável é composto de tudo aquilo que emitiu radiação e esta radição nos alcança no presente. Como a velocidade da luz é finita é possível que existam partes do universo não observadas mas isto nos remete a um terreno pouco físico, uma vez que estas regiões não nos afetam de forma alguma. Além disto seria surpeendente se regiões distantes de nossa observação, se existirem, fossem muito diferentesda região observado, que apresenta grande grau de uniformidade e homegeneidade. Além disto a homogeneidade da radição de fundo é uma indicação de que houve tempo suficiente para que as diversas regiões do espaço interagissem entre si atingindo a homogeneidade.

A última das possibilidades é geralmente apresentada como a melhor solução para o paradoxo (que portanto não é um verdadeiro paradoxo!). Com a expansão universal as estrelas, galáxias e tudo o mais que emite luz estão em velocidades que são mais altas para objetos mais distantes e o efeito do desvio para o vermelho enfraquece o brilho desta radiação.

Desta forma, uma pessoa desprovida de instrumentos poderia ter percebido, antes das medidas do deslocamento feitas por Hubble, que ouniverso não pode ser simultaneamente estático e infinito.


Cosmologia, a Estrutura do Universo

O Céu pode cair sobre nossas cabeças?

Uderzo e Goscinny criaram a história em quadrinhos de Asterix e a famosa tribo gaulesa que teria vivido aproximadamente 50 anos antes da Era Cristã. Quase toda a Gália havia sido ocupada pelos romanos, exceto por uma pequena aldeia povoada por bravos guerreiros gauleses que, isolados, resistiam ao invasor. Com a ajuda do druida da aldeia, que lhes fornecia uma poção de invencibilidade, eles levavam uma vida despreocupada e divertida e nada temiam … exceto que o céu lhes caísse sobre as cabeças.

É claro que todos os que leram aquelas histórias se divertiram com esta questão. Mas isto não elimina a necessidade da pergunta: pode o céu cair sobre as nossas cabeças?

Talvez a pergunta possa se revestir de maior credibilidade se a colocarmos sob outra forma: “o céu, o firmamento, as estrelas e o próprio universo são eternos?” Ou ainda, sob forma mais técnica: “Existem soluções estáveis para o movimento dos objetos celestes que hoje conhecemos?”(1)

(1) Exploraremos com maior cuidado o significado desta última formulação da pergunta!(2) A palavra cosmologia vem do grego κοσμολογία, kosmos, “universo” e logia, “estudo”) e representa uma tentativa de apreender racionalmente o Universo em sua totalidade, a distribuição e estrutura de seu conteúdo, o mecanismo de sua formação e seu desenvolvimento futuro.

As pessoas, em todos os tempos, sempre se perguntaram sobre a origem do mundo, sobre como ele está hoje estruturado e como será o seu final, caso venha a existir um final. Esta é a questão básica da cosmologia(2). A maior parte deste esforço foi feito sob a forma de mitologia e filosofia, cada uma destas com seu próprio valor e capacidade de abrangência. Mas apenas recentemente foi possível obter um tratamento científico para estas dúvidas e muitas respostas interessantes são daí decorrentes.

A maior parte do que hoje sabemos sobre cosmologia é uma aplicação direta da Teoria da Relatividade Geral de Einstein, que passaremos a denominar simplesmente por TRG. Logo que Einstein completou a sua teoria ele percebeu que ela seria uma ferramenta importante na compreensão do universo. O motivo não é difícil de se entender. Hoje conhecemos apenas quatro tipos de forças ou interações físicas: as forças nucleares fraca e forte, eletromagnética e gravitacional. As forças nucleares são poderosas mas possuem campo de atração muito restrito. Elas decaem rapidamente quando se afasta das cargas e só são importantes nas proximidades no núcleo atômico. Os campos eletromagnético e gravitacional têm o mesmo tipo de decaimento com a distância mas as cargas elétricas positivas e negativas existentes em um planeta, digamos, se cancelam. A carga gravitacional, que é composta por toda e qualquer partícula com massa não nula, é única. Nas escalas do afastamento entre planetas, entre as estrelas e galáxias a gravitação é o único campo efetivo.

Quando Einstein e outros cientistas aplicaram a nova TRG ao estudo do Universo eles logo perceberam que não havia uma solução estática o que causou uma certa comoção uma vez que, com base no pensamento ocidental vigente na época, se esperava que o universo fosse eterno e imutável. Buscando tornar a solução de seu universo estática Einstein acrescentou, de forma bastante arbitrária, um termo extra às equações que descreviam a gravitação. Este termo foi denominado Constante Cosmológica e, apesar de não resolver o problema a que se destinava, teve papel importante e ainda não completamente esclarecido no estudo da cosmologia. Mesmo com a constante cosmológica o universo seria instável de forma que ele abandonou este termo dizendo que aquele havia sido o maior erro de sua vida.

Façamos uma pequena digressão para compreender melhor o que são soluções estáticas ou não estáticas para o universo. Para isto considere, por um momento, que a teoria de Newton é completamente correta (como se acreditava até a apresentação do trabalho de Einstein). Segundo a teoria newtoniana dois corpos materiais se atraem na razão direta de suas massas e inversa do quadrado da distância entre eles. Esta teoria é suficiente para explicar a maior parte das órbitas planetárias, dos cometas e dos satélites. Ela só deixa de ser válida em situações onde a atração da gravidade é muito alta, o que ocorre nas proximidades de corpos gigantes, quando passa a ser necessário utilizar a TRG. Como todos os objetos massivos se atraem, no caso de um universo finito, todos os planetas, estrelas e galáxias cairiam uns sobre os outros formando um grande aglomerado de massa mais ou menos no centro deste universo. Pode-se também imaginar um universo infinito, de forma que cada bloco de matéria tivesse a mesma quantidade de matéria por todos lados de modo a atração fique equilibrada. Neste caso, para ser estático ele teria que ser completamente homogêneo, com igual densidade em todas as partes. Qualquer pequeno aglomerado mais denso de matéria faria que que se iniciasse um processo de aglutinação. Sabemos, é claro, que o universo não é completamente homogêneo. Se assim fosse não existiram sistemas planetários, galáxias e aglomerados de galáxias como os que são hoje observados.

Concluimos portanto que, mesmo no panorama newtoniano, não é possível que o universo seja estático. Um astrônomo ou físico, de posse apenas da física clássica newtoniana, poderia ter anunciado ao mundo muito antes de Einstein que o universo deve ser dinâmico, que não pode estar em um estado de constância e permanência!

Resta uma possibilidade: o universo está de fato caindo em direção à algum ponto ou se expandindo! E esta dúvida deve ser esclarecida por meio da observação astronômica.

Edwin Hubble

A resposta foi encontrada por Edwin Hubble, entre outros astrônomos. Em torno do ano de 1919 foi concluída a construção de um grande telescópio (para os padrões da época – ele tinha 2.5m de abertura!). Até então se acreditava que o universo era constituído apenas pela Via Láctea. Hubble identificou objeto celestes, antes conhecidos como nebulosas, como sendo estruturas gigantescas de estrelas muito além dos limites da Via Láctea. De fato elas consistiam em outras galáxias análogas à nossa, e existiam em abundância. Hubble observou, por meio do chamado efeito de “desvio para o vermelho” que as galáxias estavam, em sua maioria, se afastando da nossa e que, quanto mais distantes estão, mais rápido é este afastamento. Esta observação leva a diversas conclusões interessantes: no passado toda esta massa de objetos celestes estava muito mais próxima; o universo teve um início, o momento em que a massa universal partiu em sua viagem de expansão; a temperatura do universo era muito maior no passado; e, finalmente, algum efeito produziu a expansão. é o que chamamos hoje de Big Bang ou a Grande Explosão e, com esta verificação, abandonamos a tentativa ou a esperança de encontrar uma descrição do universo consistente com um universo estático e imutável.

Voltando para a teoria de Einstein, para chegar ao chamado Modelo Padrão da Cosmologia foi necessário fazer algumas hipóteses (que, é claro, devem ser verificadas pela observação). As equações de Einstein descrevem o campo gravitacional. Diferentemente das teorias anteriores desenvolvidas na física, onde o espaço em que agem as forças e ocorrem os movimentos é tomado à priori como sendo conhecido, elas tem como solução o próprio espaço-tempo. Dito de uma forma simples e resumida a TRG associa a presença da matéria à geometria do espaço-tempo. Matéria deforma o espaço-tempo que, por sua vez, altera a trajetória das partículas que nele viajam. Estas equações são tecnicamente conhecidas como equações diferenciais, como são praticamente todas as demais equações da física, mas, diferente das equações de Newton, são não-lineares e, em geral, de difícil solução.

O primeiro passo importante para o estabelecimento de um modelo universal realista foi proposto pelos esforços conjuntos dos físicos e matemáticos Friedmann, Lemaître, Robertson e Walker (que passaremos a chamar de FLRW, para simplificar). Estes pensadores partiram da suposição inicial de que o conteúdo de massa do universo é homogêneo (ou, pelo menos aproximadamente homogêneo), isotrópico e simplesmente conexo. A homogeneidade significa que regiões distintas do universo possuem a mesma densidade, a isotropia significa que o universo tem aproximadamente as mesmas propriedades independente da direção em que se olhe. Ele é conexo se é possível, em princípio, viajar de uma região qualquer para outra qualquer sem abandonar o universo.

A homogeneidade, é claro, não é observada em qualquer escala. O sistema solar, por exemplo, é altamente inomogêneo, consistindo de um grande aglomerado de massa em seu centro, o Sol, e os planetas muito menos massivos, que orbitam a estrela central. Se observamos este sistema de um ponto cada vez mais afastado veremos que muitas outras estrelas existem na nossa vizinhança, formando a galáxia Via Láctea, que por sua vez consiste em um grande aglomerado central de corpos celestes, circundado por braços espiralados. é interessante lembrar que nosso Sol se encontra na ponta de um destes braços. Afastando-nos ainda mais perceberemos que nossa galáxia faz parte de um aglomerado de galáxias e os aglomerados se dispõem em forma de gigantescos filamentos e paredes cósmicas. A homogeneidade só é obtida, aproximadamente, em escalas ainda maiores.

A suposição de FLRW permite uma grande simplificação das equações de Einstein que passam, agora, a exibir soluções razoavelmente simples e tratáveis e que formam a base do entendimento moderno da disposição e evolução do universo. As equações que descrevem esta dinâmica, no entanto, dependem fortemente de um parâmetro que não pode ser fornecido pela própria teoria, mas deve ser medido ou observado. Este parâmetro é a densidade, a quantidade média de massa contida em cada unidade de volume. Quanto maior a densidade maior será a força de atração universal entre todos os componentes do universo. Sabemos, pela observação, que estamos em expansão. Se a densidade for acima de uma certa densidade crítica a atração será suficiente para frear a expansão e o universo se contrairá após atingir uma expansão máxima, colapsando sobre si mesmo e provavelmente caindo em direção a um gigantesco buraco negro. Se a densidade for menor que a crítica ele continuará para sempre em sua expansão pois a atração não será suficiente para fazê-lo recontrair-se. O caso intermediário, de densidade crítica, é representado por uma expansão eterna com paralização no infinito.

Uma analogia útil:

Velocidade de escape

Podemos aqui tentar uma analogia com um caso bem mais simples e concreto. Você está em um planeta qualquer e, quando olha para o céu, vê uma pedra que está subindo. Naturalmente você conclui que ela tinha velocidade mais alta no passado, já que ela está sendo atraída (e, portanto, freada) pela gravidade do planeta. Se a massa do planeta for muito grande a atração será suficiente para frear a pedra que voltará a cair no chão. Se a massa do planeta for pequena a pedra pode estar com velocidade superior à velocidade mínima para que esteja presa ao planeta e não tornará a cair. Neste caso ela voa direto para o espaço e abandona seu planeta natal. No caso intermediário é o, a chamada situação crítica, a pedra voa para fora da órbita do planeta com velocidade exatamente igual à velocidade de escape.

Alternativamente, se atirarmos uma pedra do alto de uma montanha, como ilustrado na figura ao lado, ela cairá perto da montanha se a velocidade for muito baixa ou a massa do planeta for alta (caso A) ou sairá da órbita do planeta se a velocidade for alta ou a massa do planeta for pequena (caso B). O caso intermediário ocorre quando a pedra entra em órbita, percorrendo uma trajetória circular ou elíptica (ilustrado no caso C).

Nota: Um gás que se expande rapidamente, sem trocar calor com o ambiente, se esfria, enquanto um gás que se contrai nas mesmas condições se esquenta.
Nota: Um gás que se expande rapidamente, sem trocar calor com o ambiente, se esfria, enquanto um gás que se contrai nas mesmas condições se esquenta.

Assim como acontece no caso da pedra, citado como exemplo, este modelo de mundo fornece uma descrição do que ocorreu e do que poderá ocorrer com o universo. Como quase todas as galáxias estão se afastando podemos concluir que elas estiveram muito mais próximas no passado. Com a mesma energia disponível então, o universo teve origem em uma grande explosão muito quente. As teorias relativas à materia (que envolvem principalmente a mecânica quântica e a teoria quântica de campos) prevêm que as partículas elementares foram geradas e espalhadas pelo espaço com altísimas energia.

Penzias e Wilson e a detecção da radiação cósmica de fundo.

Enquanto isto outras evidências de que houve uma Grande Explosão eram verificadas. Em 1965 dois físicos americanos, Penzias e Wilson estavam trabalhando em uma grande antena muito sensível, com o formato de um chifre, usada para pesquisa em telecomunicações. Eles então perceberam que havia um ruído na recepção da antena, ruído que, por mais que se esforçassem, não puderam eliminar. Eles procuraram apontar a antena em diversas direções, descobrindo que a radiação desconhecida não provinha da Terra, nem do Sol e nem mesmo de nossa galáxia, mas estava espalhada uniformemente por todo o espaço. Então eles ouviram falar das descobertas teóricas de que o universo poderia ter sido originado em um estado de alta densidade e temperatura e compreenderam que ela era remanescente da grande explosão. Esta radiação foi denominada Radiação de Microondas Cósmica de Fundo e hoje ela é conhecida com alto nível de precisão. A uniformidade da radição pelo espaço é uma testemunha da homogeneidade do próprio universo, principalmente na época em que a radiação foi gerada e sua distribuição (frequência versus intensidade) determina uma temperatura de 3 K (3 graus Kelvin, equivalente a aproximadamente -270 oC ). Ela, no entanto, possui ondulações ou desvios da uniformidade, em perfeita conformidade com as teorias que descrevem a formação das estruturas cósmicas, tais como galáxias e aglomerados, hoje existentes.

Esta e outras verificações observacionais favoreceram a teoria do Big Bang em desfavor de teorias alternativas, tais como a Teoria do Universo Constante (Steady State Universe) que propunha ser o universo sempre imutável em densidade e que a expansão, que não pode ser negada, era compensada por uma constante criação de nova matéria no meio intergalático. A idade do universo no modelo padrão pode ser calculada com auxílio das equações de Einstein e a partir das medidas da constante de Hubble: o universo tem de 13.5 a 14 bilhões de anos. Medidas atuais indicam uma idade de aproximadamente 13.73 bilhões, com uma incerteza de 120 milhões de anos.

História Resumida do Universo

A história do universo decorrente desta teoria pode ser resumida da seguinte forma:

A Era de Planck: nos primeiros instantes, frações mínimas de segundo após a explosão (até 10-36 segundos) o universo estava tão quente e a curvatura do espaço tão acentuada que não se pode esperar que o paradigma atualmente aceito das leis físicas se aplique. é provável que novas teorias sejam necessárias para um entendimento desta era, tais como Gravitação Quântica e Teoria de Cordas. Existem diversas especulações sobre que tipo de campo teria provocado a explosão, mas todas estas teorias estão ainda em fase de desenvolvimento. Pode-se dizer que não existe hoje um entendimento razoável da física operante na época.

A Era Inflacionária: Após este período o universo entra em sua fase inflacionária, um período em que os campos quânticos entre partículas determinam um rápido afastamento mútuo de todas as partículas existentes. Durante esta era se espera o aniquilamento da antimatéria gerada na explosão enquanto a pressão exercida pela radiação é excessivamente grande para permitir a associação de partículas elementares como os prótons e neutrons. Por outro lado a densidade da sopa primordial de partículas é tão densa que a radiação não consegue viajar livremente e se diz que matéria e radiação estão acopladas. A temperatura cai até 1015 K.

(3) É curioso observar que todos os processos de nucleosíntese conhecidos (o mecanismo de formação da matéria) indica aformação inicial apenas de hidrogênio e hélio (respectivamente números atômicos 1 e 2). Isto significa que todos os demais tipos de átomo são formados por processos posteriores, em particular no interior das estrelas, como exploraremos na seção sobre a evolução estelar!

Desacoplamento e Era Bariônica: com a queda da temperatura abaixo de 15 K a densidade de matéria se torna mais baixa e a radiação passa a viajar livremente. Neste período teria sido gerada a radiação que hoje se apresenta a nós como radiação cósmica de fundo, agora com temperatura de 3 K. Partículas elementares se agrupam em bárions (protóns e neutrons, os núcleos da matéria ordinária3) e, mais tarde, os eletrons passam a orbitar estes núcleos formando átomos de hidrogênio e hélio. Também nesta época se dá o início da formação das estruturas universais em grande escala, que futuramente darão origem às galáxias, aglomerados galáticos, filamentos, paredes e grandes vazios.

O Futuro do Universo: A história futura do Universo depende de densidade de matéria e energia nele existente. Apesar dos avanços recentes sobre o assunto, muitas dúvidas permanecem em aberto. Se a densidade de matéria fosse maior que a crítica o universo atingiria uma expansão máxima e depois voltaria a se contrair com toda a matéria se aglutinando em um gigantesco buraco negro. Literalmente “o céu cairia sobre nossas cabeças”. Já houve quem especulasse sobre a possibilidade de que, após a contração, uma nova explosão desse origem a um novo universo.

No entanto a densidade de matéria ordinária (chamada matéria bariônica, feita de núcleos com prótons e neutrons) é bem menor que a densidade crítica (em torno de 1%) e é portanto insuficiente para conter a expansão. Segundo a observação outras fontes de atração adicionais parecem existir, e este tem sido tema de intenso estudo. Existem medidas que indicam que o universo está muito próximo de sua densidade crítica, tornando-se assim necessário descobrir de onde vem a atração adicional, que não da matéria comum. Este é o chamado problema da massa faltante (missing mass).

Hoje é possível observar um objeto individual contido em uma galáxia outra que a nossa própria, e medir a sua velocidade. Ocorre que as velocidades de estrelas em torno de galáxias não obedecem as leis de Kepler, o que sugere a existência de uma matéria incomum permeando e envolvendo como um halo as galáxias. Esta é a chamada matéria escura (dark matter) que não emite luz e nem interage com a radiação emitida pela matéria comum, embora produza efeito gravitacional. Especula-se que parte da massa faltante possa ser encontrada ai. Além disto há a possibilidade que esta massa seja explicada pela presença de partículas elementares como o neutrino, que interage pouquíssimo com a matéria comum, ou pela existência de grande número de pequenas estrelas (ou grandes planetas) com uma massa insuficiente para iniciar a combustão nuclear que ocorre nas estrelas comuns e que são responsáveis pelo seu brilho. Há ainda a possibilidade de que algum efeito inerente ao próprio espaço-tempo, algo como a constante cosmológica de Einstein, que mencionamos antes, possa ser responsabilizada pela diferença da massa. De fato, medidas recentes indicam que o universo, ao contrário de estar sendo desacelerado pela atração gravitacional, como esperado, esteja sendo, pelo contrário, acelerado em sua expansão, como se ainda estivéssemos sob o efeito de algum campo inflacionário. Neste caso, ou no caso de verificarmos uma densidade abaixo da crítica, o universo se expandirá para sempre, se tornando cada vez mais frio e uniforme. De acordo com a lei da entropia as regiões de diferentes temperaturas se tornarão cada vêz mais homogêneas e não existirá diferenças de potenciais de qualquer tipo para que a matéria ou energia inicie novos processos tais como a formação de novos objetos celestes. Este é, de fato, um final monótono para o universo.

Bibliografia

Existem muitos livros bons sobre o assunto, no nível de divulgação científica. Entre eles:

  • Gleiser, Marcelo : A Dança do Universo – dos Mitos de Criação ao Big-Bang. São Paulo: Companhia das Letras, 1997.
  • ____ : O Fim da Terra e do Céu, São Paulo: Companhia das Letras, 2001.
  • Harrison, Edward :A Escuridão da Noite – Um enigma do universo, São Paulo: Jorge Zahar Editor, 1995.
  • Islam, J. N. : O destino final do universo, Rio da Janeiro: Francisco Alves,
  • Silk, Joseph : O Big Bang – A Origem do UniversoBrasília: Editora da Universidade de Brasília, 1985.
Para aqueles que procuram um conhecimento mais técnico e matemático sobre o assunto:
  • Morais, Antônio M. A. : Supernovas & Cosmologia, São Paulo: Livraria da Física, 2009.
  • ____ : Gravitação & Cosmologia, uma Introdução, São Paulo: Livraria da Física, 2010.
  • Souza, Ronaldo E. : Introdução à Cosmologia, São Paulo: Livraria da Física, 2004.