TEXTOS
História da matematização da natureza
Milton Vargas
A FILOSOFIA GREGA instituiu uma forma de desvelamento da realidade que se chamou épisteme theoretike; em outras palavras, uma sabedoria baseada em forma de pensar radicalmente nova denominada teoria. Esse foi o mais rico legado da civilização grega clássica à humanidade. A visão teórica da natureza como physis, eterna porém localmente sujeita ao processo de geração e corrupção, deu origem às ciências gregas da natureza. Com o cristianismo, tal forma de pensar entrou em crise: se o mundo fora criado por Deus, por Ele poderia ser destruído invalidando as leis da natureza.
Acontece porém que o cristianismo não foi fundado por filósofos, mas por homens simples e crédulos. Assim, quando se tornou necessário consubstanciar a fé cristã num corpo de doutrinas coerentemente elaborado, os padres da Igreja passaram a reinterpretar os princípios da épisteme theoretike em termos de um Deus único, eterno, perfeito e verdadeiro, governando uma natureza precária. Tal fato foi possível talvez justamente porque os filósofos gregos estavam já dominados - como muito bem o demonstrou Werner Jaeger (1) - pela crença em uma divindade única, permanente e coerente (to theon). Foi essa crença que tornou possível a compreensão da physis como algo inteligível. Conseqüentemente, as filosofias de Platão e de Aristóteles prestaram-se à reinterpretação cristã monoteísta da teoria grega sem deformá-la radicalmente.
Em suma, o pensamento teórico consiste em ver que por detrás das aparências cambiantes do mundo há uma realidade idêntica a si mesma, não-contraditória e verdadeira, ou falsa, não admitindo meio termo entre a verdade e a falsidade. É o que nos ensina o poema de Parmênides. Essa nova forma de pensar, inventada por gregos no século vi antes de Cristo, foi transferida ao mundo ocidental moderno, através da Idade Média, justamente pela Teologia - a teoria de Deus - baseada na re-interpretação dos princípios da épisteme theoretike. É verdade que com a derrocada do mundo antigo os homens perderam o interesse pela natureza, provavelmente devido à crença em seu caráter precário, por acreditarem que estaria sujeita a ser destruída a qualquer momento pela vontade de Deus. Com o correr do tempo, e com a própria Teologia como reinterpretação da teoria grega, foi ressurgindo o interesse pela criação divina que era a natureza e, assim, a partir do final da Idade Média, as ciências da natureza.
Note-se que com o espetacular desenvolvimento da teoria de Deus durante a Idade Média há um não menos espetacular aperfeiçoamento da Lógica Clássica. Essa era também uma teoria sobre a forma de pensar que conduzia necessariamente ao real, com suas características de identidade, não-contradição e exclusão de um terceiro termo intermediário entre o falso e o verdadeiro. Pois foi a Lógica que, desde Aristóteles, garantiu a exatidão do pensar teórico.
Simultaneamente, com o aparecimento do conhecimento teórico grego aparece um processo que veio a moldar a forma das ciências da natureza. É o que se poderia chamar de matematização da natureza. Com Pitágoras e seus seguidores surgiu a fecunda idéia de que a arché da natureza, ou seja, o princípio do qual brotam todas as coisas e a ele revertem, é o número. Isto é, o que é permanente, unitário, verdadeiro e, portanto, inteligível sob as aparências enganosas dos fenômenos, são suas proporções harmoniosas, expressas em números. Em outras palavras, a realidade vista pela teoria (theoren, em grego, significa ver) são as harmonias que governam o mundo, desde o movimento dos planetas até o som das cordas de lira.
Platão tratou da natureza e da sua origem em um de seus últimos diálogos: o Timeo (2), cujo subtítulo é exatamente Peri Physei (a respeito da natureza). Nesse diálogo ele assume a posição pitagórica quando descreve a construção da physis pelo Demiurgo - cujos olhos estão fixos num modelo pré-estabelecido - misturando, em proporções harmoniosas, duas substâncias indefinidas, incorpóreas e contrárias a que chamou de o um e o outro. Portanto, os números que expressam tais combinações são a própria essência da natureza. Dessa mistura surgem os quatro elementos que vão constituir, quando combinados entre si, todas as coisas da natureza. Porém, a realidade por detrás das aparências enganosas desses elementos - terra, ar, fogo e água - são as figuras geométricas perfeitas: tetraedro, cubo, oCTAedro e icosaedro.
Na academia platônica desenvolve-se a geometria que, embora inspirada nas técnicas egípcias de medir terrenos, é uma teoria das formas perfeitas das quais as coisas participam. Os geômetras da Academia desenvolveram os teoremas pelos quais as propriedades das figuras geométricas eram demonstradas de forma racional. Posteriormente Euclides, já agora na Escola de Alexandria, demonstrou que esses teoremas eram todos dedutíveis uns dos outros a partir de certos axiomas, evidentes por si mesmos, formados com noções primeiras. Assim surgiu a geometria como modelo de uma teoria axiomática.
Platão impressionou-se com a idéia de que quando os geômetras discutiam seus problemas, traçando figuras geométricas sobre a areia, não se referiam diretamente a esses toscos traçados, mas aos triângulos e outras figuras ideais cujas propriedades podiam ser racionalmente demonstradas e que eram simplesmente representados pelos traçados na areia. Estendeu essa sua impressão a todas as coisas, afirmando corresponder a cada uma delas uma idéia perfeita e inteligível e serem essas idéias as que constituíam a realidade. Tudo o mais era ilusão e engano dos sentidos.
Assim, para Platão, o mundo das idéias, das coisas pensadas era o do real (bom, belo e verdadeiro). Nesse mundo existiam, de um lado, as idéias das formas geométricas, inteligidas pelo pensamento matemático (a dianóia); e do outro, as idéias das demais coisas, inclusive os ideais como: beleza, justiça e bondade, abarcáveis pelo pensamento dialético (noética). Em suma, a realidade última eram as idéias. Era sobre esse mundo ideal que a épisteme theoretike se ocupava. O restante, o mundo das coisas vistas e sentidas, só poderia ser objeto de conjecturas, crenças e opiniões. Essa é a origem das doutrinas metafísicas denominadas de idealismo.
Havia porém outra épisteme theoretike sobre a natureza, a qual só chegou ao conhecimento do Ocidente depois do primeiro milênio; a princípio, através de interpretações árabes e, no século xiii, diretamente do grego. É a Physica de Aristóteles (3). Para Aristóteles, a idéia mais completa de Physis era a das formas das coisas que se movem e se transformam por meio de causas e, eventualmente, pelo acaso. A natureza é dotada de animação. Era quase o mesmo que - para nós - um animal; isto é, dotada de um movimento autônomo, almejando um fim ou lugar último e próprio. É a teoria do movimento organizado, visando a uma finalidade.
Na física de Aristóteles não há a inspiração matemática que domina o Timeo de Platão. Mas ela é organizada de forma lógica, não muito diferente da geometria euclidiana. Parte de determinados princípios, e deles vão sendo deduzidas as conclusões. Os primeiros princípios, porém, são dados por outra teoria: a metafísica, que pode ser entendida como teoria da realidade última ou radical, ou seja, a teoria daquela realidade da qual a realidade física decorre. Antes de mais nada, em contraposição a Platão, Aristóteles insiste que as idéias não são separadas das coisas; existem enquanto relacionadas a elas, das quais são idéias. O que realmente existe são os entes individuais: aquilo que faz esses entes realmente representarem o que são. O ser desses entes representa a sua substância, com sua essência e seus acidentes. A essência é o que se diz da substância necessária para que ela permaneça sendo o que é; os acidentes são os predicados não-necessários para que o ente permaneça sendo o que é. A realidade última está nas substâncias que individualizam os próprios entes. Essa é a origem de todas as doutrinas realistas. O real, segundo Aristóteles, está naquilo que os indivíduos são e não nas idéias, como queria Platão. É a doutrina que se chama realismo.
Com a Física aristotélica inaugurou-se um tipo de teoria sobre a natureza, organizada logicamente, mas na qual a matemática está ausente. No Timeo de Platão há uma visão matemática pitagórica da natureza, mas essa é pura contemplação. Entretanto, apesar de já anunciar a possibilidade da matemática ser a linguagem própria da realidade, pouco tem a ver com o cálculo ou a análise da atual matemática. Foi somente durante o período helenístico que homens como Arquimedes (289-212 a.C.) deram origem à idéia da aplicação da geometria e da aritmética como instrumento de cálculo e descrição de fenômenos. Assim o fez Eratóstenes ao medir a circunferência da Terra e estimar as distâncias e tamanhos do Sol e da Lua.
Ao final do período helenístico, Claudio Ptolomeu (século II d.C.), em sua Síntese Matemática (4) utilizou intensivamente a matemática para a compreensão do movimento dos astros. Havia um modelo aristotélico dos céus, no qual os corpos perfeitos dos planetas descreviam órbitas circulares, pois os círculos seriam as únicas figuras geométricas compatíveis com a perfeição dos céus. Mas os fenômenos não se adaptavam a esse modelo. Os planetas aparentavam movimentos que não eram exatamente circulares: muitas vezes pareciam mover-se em sentido contrário. Para os filósofos, tal fato não contrariava a teoria; consideravam que as aparências enganosas dos fenômenos não eram reais. Mas, os helenistas da Escola de Alexandria, baseados aliás numa idéia original de Platão, sustentavam que cabia aos matemáticos retificar as observações no sentido de salvar os fenômenos. Foi o que fez Ptolomeu, com a ajuda da geometria, conjugando movimentos circulares de forma tal que o movimento resultante se aproximasse das órbitas aparentes.
Pierre Duhen (5) chamou a atenção sobre a importância desse procedimento; segundo ele, a evolução da física - de Platão a Galileu - deu-se em decorrência da necessidade de ajustar a realidade da teoria à aparência dos fenômenos. Ora, isso pode ser entendido no sentido de que o conhecimento teórico da natureza - originariamente ligado à geometria - como visão ideal da perfeição harmoniosa do cosmo foi se desenvolvendo paralelamente à evolução da matemática, deixando, assim, de forma paulatina de ser simples forma de contemplação da realidade, para adquirir o caráter de um instrumento de conhecimento da natureza.
Tal matematização estendeu-se também para o Globo Terrestre quando o próprio Ptolomeu aplicou o mesmo processo geométrico para marcar a posição dos astros no céu com relação à Terra. É verdade que, antes dele, Marino de Tiro, um seu contemporâneo do século II de nossa era, já concebera a Terra como uma esfera que podia ser dividida em paralelos e meridianos. A partir dessa idéia, fundamentando-se em relatos anteriores, traçou o que teria sido o primeiro mapa-múndi em bases matemáticas com as posições na Terra indicadas por coordenadas geográficas. Mas, suas coordenadas eram paralelas e ortogonais entre si, portanto, deformando as posições locais. Ptolomeu continuou e aperfeiçoou o trabalho de Marino de Tiro, adotando meridianos que convergiam para os pólos. Dessa forma, chegou a coligir uma lista das coordenadas geográficas das principais cidades do mundo então conhecido. Com essa lista, traçou um mapa-múndi que fazia parte de sua Geografia, o qual, no entanto, foi perdido; mas a Geografia de Ptolomeu, com sua lista de coordenadas geográficas, foi reencontrada no alvorecer do Renascimento servindo de base para as navegações ibéricas.
Diz-se que o império romano pouco contribuiu para com as ciências. Mas, há alguma injustiça em afirmar-se que a Scientia romana não fez mais do que compilar a épisteme grega. Na Medicina e na História Natural foi além dela. Exemplo disso é o poema de Lucrécio, De Natura Rerum (6), no qual outra teoria grega, o atomismo de Demócrito, no contexto do epicurismo, é magnificamente interpretada e ampliada. Demócrito explicara a aparente contradição na concepção grega da Physis - entre o conceito de algo eterno e perfeito e a existência da geração e corrupção na natureza - concebendo-a como um conjunto de átomos - esses sim, indivisíveis, perfeitos e eternos - movendo-se no vazio, sujeitos a chocarem-se entre si, aglutinarem-se ou separarem-se, assim formando naturezas que se faziam e desfaziam, num processo de geração e corrupção, o qual se encontra magnificamente descrito no poema de Lucrécio. Mesmo assim, em nada contribui para o processo de matematização da natureza que estamos procurando analisar historicamente. Foi o reencontro do livro de Lucrécio no Renascimento, porém, que levou ao atomismo moderno, de decisiva importância para a matematização da física contemporânea.
Durante a maior parte da época medieval, o escasso interesse pela natureza restringiu muito o desenvolvimento das matemáticas. Contudo, foi nesse período que elas floresceram entre árabes e hindus. Entre os chineses, a matemática era mais uma técnica de enumeração, medida e contagem, como o fora entre egípcios e babilônios nos tempos míticos. Na própria Europa, mantinha-se a idéia grega da matemática como contemplação das proporções harmoniosas, mais nas artes e especialmente na música do que na natureza. A partir do século XII a introdução na Europa da matemática árabe, do sistema de numeração de origem hindu e da nova ciência - a álgebra - despertou o interesse pelo cálculo através da solução de equações algébricas. Os árabes tinham recebido a matemática no século ix por meio da tradução dos tratados gregos. Agora seus textos em árabe eram traduzidos para o latim. Os Elementos de Euclides foi um dos primeiros tratados matemáticos gregos assim traduzidos por Adelard de Bath, em 1142. Pouco depois, em 1175, o Almagesto, versão árabe da Síntese Matemática de Ptolomeu foi traduzido por Gerardo de Cremona, também tradutor da Álgebra de Al-Khoarizmi. Essa já tivera tradução anterior por Robert de Chester, na qual apareciam tabelas trigonométricas. Foi então que apareceu a palavra seno.
O uso dos algarismos árabe-hindus foi incrementado tanto para fins de contagem e comércio, quanto científicos. Os últimos eram quase que totalmente referentes a cálculos astronômicos. A obra elementar sobre astronomia adotada nas universidades até o Renascimento era a Sphaera de Sacrobosco (1200-1256). A ela agregava-se o Algorismus vulgaris, do mesmo autor, exposição clara sobre o uso dos algarismos árabes nos cálculos matemáticos.
Foi com a geometria e a aritmética gregas, e a álgebra e a trigonometria árabes que foram calculadas as tabelas de efemérides utilizadas a partir do primeiro quarto do século XV nas navegações ibéricas. Foi também com tais conhecimentos matemáticos, e mais o Almagesto e a Geografia de Ptolomeu, que as grandes descobertas foram realizadas pelos navegantes de Portugal e Espanha.
Georg Peuerbach (1423-1469) e seu discípulo Regiomantanus - os matemáticos mais influentes do século XV - foram os primeiros a calcular as tabelas de efemérides que acompanhavam os novos tratados de astronomia de posição sugeridos na época. Foram seus trabalhos que possibilitaram a elaboração das tabelas de marear portuguesas e espanholas utilizadas por navegantes em suas viagens por mares desconhecidos. Quando o Equador foi cruzado ao sul pelos navegantes portugueses em sua procura pelo caminho da Índia, o cálculo da posição, pela declinação do sol, tornou premente o uso da trigonometria esférica desenvolvida por Regiomantanus.
Dessa forma, um dos resultados colaterais das descobertas do Novo Mundo e do caminho da Índia foi o estabelecimento de uma imagem geográfica do mundo, em bases matemáticas. Essa imagem definitiva do mundo, com seus continentes e mares mapeados exatamente com a ajuda da astronomia de posição e da cartografia científica pode, sem dúvida, ser considerada como o resultado final de uma longa etapa do processo de matematização da natureza.
O capítulo sobre trigonometria da obra De revolutionibus orbium collestium de Copérnico (7), publicada em 1543, ano de sua morte, muito deve a Regiomantanus. Muito se fala dos propósitos práticos do heliocentrismo de Copérnico para a reforma do calendário; é de se conjecturar, porém, também sobre a influência que teriam tido as notícias do uso da astronomia de posição nas descobertas ibéricas. Muito se fala ainda sobre o caráter de humildade humana do sistema de Copérnico, retirando a humanidade de uma posição central e privilegiada no centro do universo. Entretanto, tal fato não estaria de acordo com o humanismo exacerbado que dominava a mentalidade da época. Pelo contrário, colocar a Terra entre as coisas perfeitas e eternas do céu pode parecer mais uma atitude de exaltação do humano do que de humildade. De fato, o que resultou do heliocentrismo de interesse para a análise da matematização da natureza foi a abolição de qualquer diferença entre o mundo das perfeições celestes e o mundo sub-lunar da corruptibilidade habitado pelos homens. De então em diante admitiu-se, como um princípio dominante das ciências, que as leis humanas são válidas para todo o universo. Uma equação matemática deduzida teoricamente aqui na Terra, e tendo sua verdade sido estabelecida por experiências levadas a efeito pelos homens, vale em qualquer parte do universo por remota que seja. Essa é uma das diferenças fundamentais entre a ciência aristotélica e a moderna, estabelecida após Copérnico.
Há, nessa época, curiosa mudança do significado que se dá às matemáticas, especialmente à geometria. A redescoberta de textos gregos trás de volta aos homens do Renascimento o sentido grego da Geometria como contemplação das harmonias que dominam a natureza. As artes renascentistas acentuam esse caráter através da perspectiva, principalmente através da arquitetura de um Brunesleschi, por exemplo. Passam a utilizar a geometria como um instrumento para bem construir, imitando as harmonias com as quais a natureza foi criada. Leonardo da Vinci, em seus Scritti Letterari (8), mostrou muito bem o seu intento de utilizar a perspectiva e as proporções harmônicas para descobrir, por meio da pintura, os segredos da natureza. Provavelmente teria sido essa sua visão da geometria, através das proporções e da perspectiva que o levou a afirmar que "não há nenhuma certeza onde não se possa aplicar uma das ciências matemáticas". Contudo, para Leonardo, como para todo cientista do Renascimento, o conhecimento faz-se através da experiência. É ela que ensina como a natureza opera; porém, ela própria, está sujeita à razão; pois, segundo Leonardo da Vinci, "nenhum efeito está na natureza sem razão; entenda essa razão e não necessitarás da experiência". Contudo, deve-se lembrar que o significado de experiência para os renascentistas é o da visão direta dos fenômenos, submetidos à ordem da razão. É algo muito parecido com a moderna fenomenologia. Esse método, entretanto, é muito conveniente para as ciências da natureza - como a botânica ou a anatomia, ambas muito próximas da descrição das plantas ou dos órgãos anatômicos por meio de desenhos e pinturas artísticas. Isso foi o que fizeram Leonardo ou Dürer.
Na astronomia ou na geografia e cartografia renascentistas esse critério de visão direta, controlada pela razão, está obviamente presente na observação direta dos astros e dos locais na Terra, com suas posições anotadas por meio de suas coordenadas celestes ou geográficas. Essas observações diretas, porém, irão ser interpretadas de acordo com o que se apresenta como matematicamente correto. Foi o que fez Kepler, ao tentar interpretar as observações de Ticho Brahe quanto às suas idéias sobre a harmonia dos céus. Incidentalmente chegou às suas três leis que descrevem o movimento dos astros. A expressão matemática dessas leis, entretanto, não estava no centro dos seus interesses, a não ser a terceira que enumerava a disposição proporcional dos astros girando em torno do rei Sol. Por esse aspecto, creio que se deva compreender Kepler como uma figura periférica do movimento científico renascentista, já em transição para a ciência moderna estabelecida por Galileu no início do século xvii, em termos de um novo conceito tanto no papel das matemáticas quanto do significado da experiência científica.
Foi Galileu, como está explicitado em seus Discursos e demonstrações matemáticas em torno de duas novas ciências (9), publicado em 1638, quem tornou patente a nova função da matemática como análise dos fenômenos naturais, ao mesmo tempo em que enunciava um novo critério de verdade científica, atribuindo à palavra experiência novo significado. "Ao investigar um fenômeno da natureza", diz Galileu textualmente, "primeiro concebo com a mente". Modernamente, significaria: elaborar uma conjectura sobre o fenômeno. No caso do fenômeno da queda dos graves, analisado nos Discorsi, conjectura-se que os graves cáiam com movimento uniformemente acelerado. A partir dessa conjectura arma-se um raciocínio lógico, para Galileu, preferivelmente matemático, uma vez que ele já afirmara: "o livro da natureza está escrito em caracteres matemáticos". Tal raciocínio levará a conclusões ou soluções particulares, as quais deverão ser confrontadas com a experiência. Essa experiência, porém, não será a da visão direta do fenômeno, como o faziam os renascentistas. Será uma experiência organizada de acordo com a conjectura previamente estabelecida, como a que está descrita em detalhes nos Discorsi. É a do plano inclinado, organizada no sentido de eliminar-se ao máximo os efeitos de atrito e resistência do ar, que atuariam como circunstâncias perturbadoras do fenômeno, da forma como conjecturado.
Essa experiência, assim idealmente organizada, irá comprovar a verdade ou denunciar a falsidade da conjectura previamente conceBIDa pela mente. Dessa forma, Galileu simultaneamente confere à matemática a função de análise dos fenômenos naturais e dá à experiência organizada em laboratório de campo o papel de simplesmente responder afirmativa ou negativamente àquilo que foi primeiramente conceBIDo com a mente. Trata-se do método experimental, baseado em conjectura prévia, que se mostrou tão eficaz nas ciências modernas.
Contudo, a análise matemática não tinha ainda se desenvolvido nos tempos de Galileu. Para armar seu raciocínio matemático na análise da queda dos graves, ele teve de recorrer à regra medieval, desenvolvida em Oxford e em Paris no século XIII, a qual afirmava que um movimento uniformemente acelerado era semelhante a um movimento uniforme com a velocidade média do primeiro.
Foi a criação da geometria analítica por Descartes, em 1637, e do cálculo diferencial e integral por Newton e Leibniz, durante o século XVII, que tornou possível a análise matemática dos fenômenos físicos. Note-se, porém, haver aí algo de mais profundo do que o simples cálculo dos fenômenos da natureza. O cartesianismo estabelece que as coisas da natureza são, em essência, pura extensão. Elas não são somente aptas a serem calculadas pela geometria analítica; apenas poderão ser compreendidas e explicadas, em sua essência, como grandezas a serem medidas. Por outro lado, nos Princípios matemáticos da filosofia natural, de 1687 (10), Newton mostrou que qualquer fenômeno físico observado empiricamente corresponde exatamente a um modelo matemático deduzido de axiomas pré-estabelecidos como verdadeiros. E ainda mais, que esses axiomas referem-se às noções de espaço, tempo, massa e força, todas elas só compreensíveis matematicamente.
O importante, para o que se está aqui almejando, é que no Livro I, O movimento dos corpos dos seus Principia, Newton deduz, por meios geométricos, com o auxílio ainda incipiente de noções do cálculo infinitesimal, as leis de Kepler, a partir de definições e axiomas por ele admitidos como evidentes por si mesmo, e estabelece sua lei geral da gravidade. No Livro III, O sistema do mundo, a partir da observação de fenômenos siderais observados que conduzem a admitir como verdadeiras as leis de Kepler, e com o auxílio de regras do raciocínio indutivo, Newton justifica sua lei de gravitação - a qual, aliás já estava analiticamente justificada no Livro I. Parece que, com isso, Newton quer racionalmente demonstrar como é possível matematizar (Livro I) os fenômenos naturais conhecidos empiricamente (Livro III).
No século XVIII a análise matemática foi instituída definitivamente como instrumento de pesquisa dos fenômenos naturais. Dois entusiastas do cálculo infinitesimal, na notação de Leibniz, foram os irmãos Bernoulli: Jacques (1654-1705) e Jean (1667-1748) de Basiléia. Foram eles que, com Leibniz, desenvolveram as aplicações do cálculo. Paralelamente, Jacques publicou, em 1713, o primeiro livro sobre a teoria das probabilidades: Ars conjectandi. Mas a inauguração do edifício acabado da análise, deu-se com a publicação, em 1748, da Introductio in analisis infinitorum de Leonard Euler (1707-1783), livro em que aparece, pela primeira vez, o conceito exato de função como fundamento da análise. Com essas funções e com a inclusão de infinitesimais, derivadas e integrais, aliás com a notação de Leibniz e não a de Newton, é que se tornou possível para os matemáticos do século XVIII escreverem equações matemáticas as quais, na verdade, serviam de modelos dos fenômenos físicos e, resolvendo-as, chegarem a soluções que descreviam fenômenos particulares relacionados com a teoria matemática.
Foi a esperança de Voltaire quanto à aplicabilidade do método de Newton na análise racional dos fenômenos, quer naturais quer culturais, que levou os enciclopedistas franceses a acreditarem na possibilidade de um conhecimento objetivo da natureza, baseado na simbiose estabelecida por Newton entre o pensamento racional e o empírico. Diderot e D'Alembert propuseram-se então a organizar o Dictionaire raisoné des sciences, des arts et des métiers, abarcando todo o conhecimento científico, artístico e técnico a partir do empirismo técnico, pois acreditavam que a única maneira de conhecer seria por sensações no manuseio das coisas; mas, não abandonaram o racionalismo, principalmente quando expresso através das matemáticas. Todos os conceitos derivavam de fatos, mas esses deveriam ser ordenados preferivelmente pela matemática para serem compreendidos.
Foi nessa linha que o Traité de dynamique, de D'Alembert, publicado em 1743, procurou estruturar matematicamente a mecânica, mas sem recorrência a qualquer verdade de razão. Parte de uma cinemática, envolvendo noções de espaço, tempo e movimento, derivadas da experiência sensível, evitando assim partir da idéia de força que, para ele, estava carregada de suposições metafísicas. Procurando entendê-las através da generalização do princípio dos trabalhos virtuais, o qual reunia em si os axiomas de Newton. Com esse livro foi dado um dos primeiros passos no processo definitivo da matematização da natureza, colocando a mecânica racional como a mestra de todo conhecimento físico. Atingira-se assim o cume da crença dominante desde Galileu e Descartes, de que o mundo era uma máquina regida pela racionalidade matemática.
Durante a Revolução Francesa apareceram os matemáticos - entre eles os dos três Ls : Lagrange, Laplace e Legendre - os quais estabeleceram a análise matemática em sua forma atual, sistematizando os princípios da anterior, de forma a torná-la um instrumento útil tanto na análise dos fenômenos da natureza quanto na solução de problemas técnicos. A matemática, assim constituída, exigia a quantificação dos problemas naturais e técnicos, daí a importância dada durante a Revolução aos processos de medida, desde as medidas geográficas até a fiscalização dos pesos e medidas comerciais. Assim, Legendre foi encarregado da triangulação da França, enquanto Lagrange e Condorcet faziam parte da comissão da qual resultou o sistema métrico.
As obras mais importantes desses matemáticos foram publicadas em pleno período revolucionário: a Mecanique analytique, de Lagrange, é de 1799 (11) e a Exposition du systeme du monde, de Laplace, é de 1796 (12). Na primeira dessas obras, Lagrange coloca os princípios da mecânica sob forma diferencial e propõe a solução de qualquer problema - da natureza ou da técnica - pela integração de equações diferenciais. Introduzindo uma nova função, igual à diferença entre a energia cinética e a potencial do sistema, Lagrange escreve suas três equações que reúnem, em si, os axiomas de Newton e a generalização do princípio dos trabalhos virtuais. Assim ficou constituída a mecânica analítica, capaz de resolver tanto os problemas da gravitação celeste e terrestre quanto o dos vários ramos tecnológicos da física clássica.
O segundo dos livros citados, o de Laplace, não é um tratado matemático. É uma dissertação sob base fenomenológica dos movimentos dos astros, reportando-se a Lagrange como aquele que reduziu a pesquisa de um sistema em movimento à integração de equações diferenciais. O livro termina com notas sobre a história da astronomia e sua célebre hipótese nebular sobre a origem do sistema solar. A intenção de Laplace com esse livro seria a de demonstrar, sob forma acessível aos não-matemáticos, sua teoria amplamente matematizada no Tratado de mecânica celeste (13), no qual analisa não só os movimentos regulares dos astros mas também as perturbações de suas órbitas, oriundas da influência de outros astros.
A intenção subjacente ao Tratado de Laplace é mostrar que o sistema solar é dominantemente estável e, portanto, perpétuo, não necessitando da intervenção divina para por-se em movimento. Além disso, não teria propósito procurar saber o sentido ou a finalidade desse movimento e, assim, Laplace dá início à doutrina denominada materialismo mecanicista, a qual dominou o pensamento de grande parte dos cientistas do século XIX.
Outra decorrência filosófica do sistema de Laplace é o determinismo, ou seja, tudo o que acontece tem necessariamente uma causa e, se essa causa for conhecida, o efeito é previsível. Ele próprio enfrentou o problema de matematizar acontecimentos aleatórios, desenvolvendo em seu tratado Teoria analítica das probabilidades, um cálculo capaz de estimar a probabilidade de um acontecimento, desde que sejam conhecidas as probabilidades de suas causas. As idéias fundamentais desse tratado constam do conhecido Ensaio filosófico sobre as probabilidades (14), no qual afirma que "uma inteligência que conhecesse todas as forças que animasse a natureza num dado instante e submetesse esses dados à análise, poderia ter presente aos seus olhos todo o futuro, tão evidente quanto o passado". Para Laplace, na falta dessa inteligência onisciente, a ciência teria de recorrer às probabilidades, não aceitando o acaso como um fator dos acontecimentos, mas simplesmente utilizando as probabilidades devido à ignorância humana sobre a totalidade de determinantes dos acontecimentos da natureza.
Com as obras de Lagrange e Laplace a mecânica analítica tornou-se a mais importante das ciências, garantindo a matematização de toda a física. Sob o ponto de vista da doutrina materialista mecanicista era uma questão de tempo que toda a natureza - pelo menos a inanimada - viria a ser matematizada a partir das equações de Lagrange e de Laplace.
Entretanto, surgia na época o controle técnico de uma poderosa fonte de energia: o calor, cuja matematização teve dupla origem. A primeira, através de outra doutrina filosófica, o positivismo. Fourier, positivista convicto, arma equações diferenciais do fluxo de calor a partir de princípios derivados de fatos positivos - aqueles indubitáveis, constatados pelos sentidos humanos. De acordo com a doutrina positivista, as soluções matemáticas de equações diferenciais estabelecidas a partir de fatos positivos corresponderiam necessariamente a fatos particulares verdadeiros. O tratado de Fourier sobre a transmissão do calor (15) passa a ser considerado como modelo de análise matemática de um fenômeno natural.
A segunda via de investigação da natureza do calor dá-se através de pesquisas de caráter tecnológico sobre o poder motivo do calor, pelo engenheiro Sadi Carnot. Suas observações levam-no a antever os dois princípios da teoria que vem a ser chamada termodinâmica. O desenvolvimento dos estudos de Carnot por parte de Clayperon e aperfeiçoados por Clausius (16) levam à matematização do fenômeno da transformação da energia calorífica em energias de outras espécies, com base nos dois referidos princípios: conservação da energia e o célebre segundo princípio da termodinâmica, enunciado por Lord Kelvin em 1851: é impossível construir uma máquina que, operando em ciclos, extraia calor de uma dada fonte e o transforme integralmente numa quantidade equivalente de trabalho. Pode-se portanto concluir que nos processos naturais de transformação de energia - os quais são sempre irreversíveis por ocorrer perdas ocasionais por atrito ou por dissipação de energia no ambiente - haverá sempre um acréscimo de energia não-aproveitável para a produção de trabalho mecânico. A esse acréscimo de energia inaproveitável chamou-se entropia. Foi esse fato que levou à tão discutida idéia da morte térmica do universo pelo constante aumento irreversível da energia calorífica não-aproveitável.
A matematização do fenômeno do calor estava assim concluída. Os significados físicos de energia calorífica e de entropia, porém, continuavam obscuros. Para Fourier, o calor era um fluído sutil, expresso por uma equação matemática contínua e derivável; para Carnot esse fluído chamava-se calórico, mas não ia muito além do nome para expressar sua natureza. Clayperon e Clausius já pensavam o calor como sendo transportado por gases das máquinas a vapor e, portanto, por suas moléculas. Em 1738, Daniel Bernoulli já formulara sua teoria cinética dos gases, segundo a qual o calor era devido ao movimento das moléculas que golpeavam as paredes do recipiente que as continha, de cuja energia cinética resultava a pressão contra elas, proporcional à temperatura do gás. Percebeu-se, porém, que a hipótese de velocidades constantes das moléculas não era realista. Essas deveriam ser de grande variabilidade, mas permitindo uma velocidade média. Tal percepção deu ensejo ao tratamento probabilístico da questão, o que foi realizado por James Clerk Maxwell em 1860. Ele chegou analiticamente à conclusão de que o logaritmo das funções de distribuição das velocidades - em três direções ortogonais - era proporcional ao quadrado das velocidades nas respectivas direções, tendo a mesma forma que a função das probabilidades de Gauss.
Ludwig Boltzmann, retomando a questão em 1870, mostrou que a distribuição estatística dos estados de energia das moléculas de um gás estava em correlação com o acréscimo da entropia desse gás ao sofrer uma transformação térmica. Assim, a entropia foi definida como uma função das variáveis de estado, proporcional ao logaritmo da probabilidade desse estado. Como a distribuição desordenada do estado das moléculas é mais provável que a ordenada, o estado de desordem das moléculas corresponderá à maior entropia, portanto, à menor probabilidade de produzir trabalho eficiente.
A análise probabilística dos fenômenos naturais entrou em conflito com a corrente positivista, que entendia os fenômenos naturais como expressões em equações diferenciais, armadas a partir de princípios estribados em fatos positivos. A análise probabilística era feita a partir de átomos e moléculas que nada tinham de positivos, pois não eram observáveis pelos sentidos. Foi a querela do atomismo que contou com a participação de notáveis cientistas do século XIX, defendendo ou atacando as posições de ambos os lados. É possível que o conhecido artigo de Boltzmann Sobre a inevitabilidade do atomismo nas ciências da natureza, publicado em 1897, tenha mostrado a necessidade de se considerar a matéria como um conjunto de partículas (17).
A matematização completa da questão, entretanto, só foi levada a efeito em 1902, quando Josiah Willard Gibbs publicou o seu livro sobre Os princípios elementares da mecânica estatística (18), abordando matematicamente os fenômenos da natureza relacionados com movimentos dispersos de partículas. Assim, essa região da natureza foi também matematizada.
A matematização dos fenômenos naturais relacionados com a eletricidade e o magnetismo deu-se a partir do momento em que se imaginou medir as forças de atração e repulsão entre cargas elétricas que ocorreu em 1777, quando o engenheiro Charles Augustin Coulomb publicou sua memória sobre Pesquisas sobre a melhor maneira de fabricar agulhas imantadas. Nesse trabalho Coulomb demonstrou haver um campo magnético terrestre, como se em qualquer ponto existissem forças que, agindo sobre a agulha magnética, a orientassem para o norte. Estendendo a idéia de campos de força à gravitação terrestre e às forças de atração ou repulsão em torno de uma carga elétrica, Coulomb utiliza a balança de Cavendish, inventada para medir as forças de gravitação, para medir também as forças entre cargas elétricas. Assim, chega à famosa lei de Coulomb sobre essas forças, que é análoga a lei de Newton para as forças gravitacionais. Dessa forma, definiu-se a existência de um campo de forças eletrostático semelhante ao campo de gravidade. Mais tarde, o próprio Coulomb demonstrou que também o campo magnético era sujeito a lei semelhante. Com tal analogia, as leis da mecânica analítica vieram a ser aplicadas também às questões de eletrostática e de magnetismo. As formas das equações eram as mesmas, variando somente os significados dos símbolos. A equação de Laplace, por exemplo, que definia a função potencial dos campos de força, valia tanto para os problemas de mecânica quanto para os de eletrostática e magnetismo. Valia ainda para os problemas de percolação d'água, na hidráulica, pois as forças atuantes, nesse caso, eram ainda gravitacionais. A partir de então desenvolveu-se a teoria matemática dos campos de força, que muito deve ao grande matemático do início do século XIX: Karl Friedrich Gauss. Na expressão matemática dos campos de força apareciam as superfícies ou linhas eqüipotenciais, definidas pela equação de Laplace e, normais a essas, os canais ou linhas de fluxo ao longo das quais uma partícula de massa ou uma carga elétrica mover-se-ia caindo de um potencial maior para um menor, exatamente como uma pedra cai, na vertical da Terra, de uma altura maior para uma menor. Assim, fenômenos magneto e eletrostáticos foram analisados por teorias formalmente semelhantes às das forças gravitacionais.
Alessandro Volta, ao inventar uma pilha capaz de fornecer continuamente uma corrente a um circuito elétrico, demonstrou que tal semelhança não existia. Aparece então a eletromagneto-dinâmica, cujos campos de força não admitiam potencial. O estudo das correntes elétricas exigiu diferente enfoque da visão newtoniana da natureza. Oersted, em 1920, descobriu que uma corrente elétrica exercia força sobre uma agulha magnética, curiosamente, não deslocando-a na direção da corrente, mas transversalmente. Mostrou que essa correlação era devida ao aparecimento, em torno do fio, de um campo eletromagnético. Mas foi Ampére quem analisou matematicamente a correlação entre corrente elétrica, campo magnético e movimento, publicando suas deduções em 1826, em um texto intitulado Memória sobre a teoria matemática dos fenômenos eletrodinâmicos deduzida exclusivamente da experiência (19).
Ampére defendia a idéia kantiana de que as teorias científicas seriam sempre deduzidas de hipóteses a priori; isto é, independentemente de experiências. Não se compreende por que teria indicado no título dessa memória ter sido sua teoria deduzida exclusivamente de experiências, quando sua convicção filosófica era de que seria impossível deduzir algo de caráter geral da experiência; as teorias, sendo de caráter geral, não poderiam provir de fatos particulares da experiência. A resposta a essa questão, talvez possa ser encontrada na conhecida referência de Oersted a respeito de Ampére, afirmando que ele, apesar de um pensador profundo, era inábil debatedor, incapaz de apresentar com clareza seus próprios argumentos. Realmente, a teoria de Ampére parte do fato fundamental (ou positivo) observado por ele: a existência de força agente entre dois fios condutores. Mas disso, elaborou um princípio: a força exercia-se perpendicularmente aos elementos de corrente, proporcionalmente às correntes e inversamente proporcional ao quadrado das distâncias entre os fios. A partir desse princípio armou sua equação diferencial e, pela solução dessa, chegou aos resultados particulares correspondentes dos fenômenos observados.
Às investigações de Ampére seguiram-se pesquisas e análises que paulatinamente vieram explicar os fenômenos eletromagnéticos. Restava esclarecer definitivamente a natureza e as propriedades dos campos magnéticos formados em torno dos condutores elétricos. Isso foi feito por Michael Faraday que começou a trabalhar em eletromagnetismo em 1821 e publicou os resultados de suas pesquisas em memórias nos Transactions of the Royal Society, entre 1831 e 1855, as quais foram posteriormente reunidas e publicadas em um só volume (20). Nessas memórias está explicado o fenômeno de indução de uma corrente elétrica de um condutor para outro, quando houvesse variação da corrente no primeiro condutor. Explica-se também o fenômeno do movimento (por exemplo, rotação de um disco de cobre) quando esse é colocado entre pólos de um eletro-imã, com simultânea geração de corrente elétrica no disco, e vice-versa, o que veio, mais tarde, possibilitar o invento do gerador e do motor elétrico.
Ao correr dessas experiências surge a maneira de se visualizar os campos de forças magnéticas, espalhando-se limalha de ferro num papel sobreposto aos pólos de um imã. As partículas de limalha orientam-se segundo as linhas de força mostrando como elas se dispõem. Quando um condutor se move, cortando essas linhas de fluxo, gera uma força eletro-motriz, a qual, por sua vez, gera uma corrente elétrica.
Da mesma forma, quando um fluxo magnético varia, induz uma força eletro-motriz em condutores fixos que delimitam superfícies cortadas pelo fluxo. Assim, Faraday explicou experimentalmente todos os fenômenos eletro-magnéticos-dinâmicos.
Mas, a matematização dos fenômenos elétricos e magnéticos só foi feita por James Clerk Maxwell, a partir de suas memórias sobre as linhas de força de Faraday, lidas quando fellow do Trinity College de Cambridge, entre dezembro de 1855 e fevereiro de 1856. Posteriormente, em 1864, Maxwell publicou um trabalho sob o título Uma teoria dinâmica dos campos eletromagnéticos, no qual estuda os aspectos dinâmicos da eletricidade e do magnetismo. Depois de uma série de tentativas para explicar mecanicamente o fenômeno, Maxwell abandona suas imagens mecânicas e parte para uma aplicação da racionalidade matemática, segundo os princípios da mecânica analítica. Dá aos símbolos das equações mecânicas os significados das grandezas e parâmetros eletromagnéticos e, assim, chega a duas equações correspondentes à eletro-magnético-dinâmica. Essas equações, combinadas entre si, levam à forma diferencial da equação das ondas, onde o coeficiente correspondente à velocidade de propagação é numericamente igual à velocidade da luz. Conclui que as ondas eletromagnéticas são transversais e se propagam com a velocidade da luz. Portanto, inversamente, a luz seria de natureza eletromagnética.
A súmula de toda a teoria de Maxwell, porém, só aparece em 1873 com a publicação do seu Tratado sobre eletricidade e magnetismo (21). Nesse trabalho Maxwell utilizou vetores e álgebra vetorial para definir as forças e correntes eletromagnéticas, mas não os empregou na dedução de suas quatro equações diferenciais básicas do eletromagnetismo, provavelmente porque a análise vetorial ainda não estava suficientemente desenvolvida. Dessas quatro equações, duas referem-se à eletro-estática e ao magnetismo e duas à dinâmica dos campos eletromagnéticos e estabeleceram:
-
a primeira, que os campos eletrostáticos são formalmente análogos aos gravitacionais;
-
a segunda, que o mesmo pode-se dizer dos campos magnéticos, mas como neles não há pólos isolados, a carga magnética é sempre nula;
-
a terceira equação expressa matematicamente a lei de Faraday, ou seja, um campo elétrico é formado sempre que ocorra variação de um campo magnético;
-
a quarta lei de Maxwell indica que há o aparecimento de um campo magnético, não só em torno de uma carga elétrica, mas também quando há variação de um campo elétrico.
Como já mencionado, as duas primeiras aparecem no trabalho de Maxwell sobre linhas de força, e as duas últimas, na sua teoria dinâmica dos campos eletromagnéticos.
Em 1885 Heinrich Hertz, professor em Karlsrule, iniciou suas experiências sobre a propagação das ondas eletromagnéticas. Utilizou, como transmissor, pontas metálicas pelas quais saltavam faíscas elétricas e, como receptor, espiras metálicas. Em suas experiências demonstrou que tais ondas refletiam-se contra placas metálicas. Apesar de ter tentado medir a velocidade de propagação dessas ondas, só mais tarde outros pesquisadores verificaram que essa velocidade era exatamente igual à da luz. A diferença estava apenas na freqüência ou comportamento das ondas. O comprimento da onda de luz era de frações de micron, enquanto que as ondas hertzianas tinham comprimentos medidos de centímetros até centenas de metros.
Ficou assim demonstrado que um campo elétrico, mesmo formado no espaço vazio, variável com o tempo, formaria correntes de deslocamento que produziriam, em torno de si, campos magnéticos que também se deslocariam no espaço. Assim, formar-se-iam ondas eletromagnéticas que se propagariam no espaço com a velocidade da luz. A descrição dessas experiências está em seu livro, cuja tradução para o inglês apareceu em 1893 (22). Era concluído por dois artigos publicados em 1890, nos quais Hertz procurou simplificar e corrigir certas incoerências na teoria matemática de Maxwell, chegando a exprimir a terceira e a quarta equação do pesquisador de forma bem mais compreensível. Afirmou, entretanto, que esse intento já tinha sido tentado cinco anos antes por Oliver Heavisides, em seu Cálculo Operacional. Embora o cálculo de Heavisides tivesse sido acusado de falta de rigor, foi ele que passou a ser empregado pelos engenheiros eletricistas para a solução de problemas de telegrafia e telefonia a longas distâncias.
Nessa época foram descobertos os raios infravermelhos, os ultravioletas e o raio x. Todas essas radiações mostraram reflexão e difração, como a luz; portanto, seriam todas elas ondas eletromagnéticas que obedeciam às equações de Maxwell e foi também demonstrado que o calor era transmitido como irradiação hertziana. Dessa forma, matematizava-se o vasto domínio das irradiações de energia. A medida da pressão dessas irradiações sobre superfícies em que incidiam concordava com as calculadas pela teoria de Maxwell.
Tornou-se costumeira a observação das intensidades e comprimentos de ondas de irradiações caloríficas que atravessavam um pequeno orifício nas paredes de um recipiente, no interior do qual se mantinha temperatura uniforme, constante e elevada. Eram os chamados corpos negros. Pôde-se, então, traçar experimentalmente uma família de cURVas, cada uma delas para temperatura constante, num gráfico que tinha, em ordenadas, as intensidades específicas da energia irradiada e, em abcissas, os respectivos comprimentos de onda. Mas, os resultados das tentativas de traçar tais cURVas, calculadas a partir da teoria eletromagnética, não coincidia com a experiência.
O impasse só foi resolvido em 1900, quando Max Planck publicou os resultados de suas investigações. Aconteceu então algo que revolucionou toda a ciência física e abriu as portas para uma nova concepção da natureza inorgânica. Ficou patente que o emissor não irradiava a energia de forma contínua, mas somente em quantidades inteiras de quanta de energia, cujos valores eram inversamente proporcionais aos comprimentos da onda irradiada.
Assim, no final do século XIX, quando a descoberta de Planck pôs fim ao que se chamou física clássica, iniciando-se a mecânica quântica, o domínio da natureza, concernente às energias, achava-se expresso sob forma matemática com toda a abrangência; os fenômenos energéticos mecânicos, expressos pelas equações de Lagrange (mais tarde complementadas pelas de Hamilton); os caloríficos, pela equação de Fourier e pelas equações da mecânica estatística; e os das irradiações eletromagnéticas, pelas de Maxwell.
Contudo, as equações diferenciais dividiam os fenômenos energéticos em três campos: os mecânicos, os caloríficos e os eletromagnéticos, embora a experiência mostrasse que a energia não se extinguia, mas se transformava de mecânica, em calor, luz, eletricidade ou magnetismo, e vice-versa. Foi o que levou Henri Poincaré a propor que se considerasse a lei da conservação da energia como uma definição disfarçada da própria energia, dizendo: "energia é aquela coisa que se conserva".
O fato de Maxwell ter abandonado suas tentativas de construir modelos mecânicos para explicar suas teorias reforçou a idéia de que a formulação matemática era a única maneira de, pelo menos, vislumbrar a natureza daquela "coisa que se conserva". Nesse sentido, Hertz também deixou de lado qualquer modelo mecânico para insistir que só as equações de Maxwell poderiam encerrar todo o conhecimento possível sobre a natureza das ondas hertzianas. O mesmo poder-se-ia dizer sobre as equações de Lagrange e as de Hamilton no que concerne à energia mecânica; e as equações de Fourier e as da mecânica estatística no que se refere à energia calorífica.
Dessa maneira, as conclusões finais da física clássica mostravam que a natureza da energia seria essencialmente formal, ou seja, sua realidade estaria mais nas expressões matemáticas do que nos seus efeitos sensíveis. Não que a expressão matemática fosse "a coisa em si, que se transforma", mas permitia entrevê-la. Com a descoberta dos quanta, essa concepção de energia não se modifica; pelo contrário, veio a mostrar que a natureza corpuscular da energia estava mais próxima da dos números do que da das substâncias.
Foi a partir das simplificações dessas equações que se deu o notável progresso da tecnologia, no final do século passado e início deste, quando se verificou o pleno sucesso da utilização de teorias científicas na solução de problemas técnicos. Da mecânica analítica surgiram as soluções de problemas de engenharia na resistência dos materiais, na teoria da elasticidade e da plasticidade. Da mesma forma, as equações da mecânica dos fluídos levavam a soluções particulares de problemas de hidráulica e hidrodinâmica. A formulação matemática avançada dessas teorias veio a constituir a mecânica dos contínuos. Aparece então, a reologia com seus modelos matemáticos, por meio dos quais é possível se escrever fórmulas expressando o comportamento elástico, plástico e viscoso de quaisquer materiais, mesmo não-existentes, em função de coeficientes, exprimindo propriedades desses materiais a serem obtidas experimentalmente. Com as mecânicas dos solos e das rochas surgem teorias mecânicas de meios não-contínuos. Da termodinâmica, baseada na mecânica estatística, surgiram as soluções para os problemas das máquinas a vapor, das caldeiras, das turbinas térmicas e dos frigoríficos. Do eletro-magnetismo, pelas aplicações e simplificações das equações de Maxwell, apareceram as soluções para os problemas de eletrotécnica e, mais tarde, de eletrônica.
O sucesso da matematização dos problemas tecnológicos relacionados com a física levou às tentativas de formulação matemática de teorias da natureza não-formalizada. Até agora, a mais bem sucedida foi a análise matemática dos fenômenos geológicos, com a geomatemática. Essa possibilidade foi aberta pela extensão da análise matemática das propriedades dos materiais constituintes da crosta terrestre, feita pelas mecânicas dos meios não-contínuos, à explicação tanto dos fenômenos tectônicos quanto dos sedimentares.
A maioria dessas utilizações tecnológicas de teorias científicas, em suma, seria consubstanciada por soluções particulares de equações diferenciais. A dificuldade estaria em encontrar soluções para as poucas equações diferenciais que formalizavam um grande e diverso número de fenômenos naturais. Por outro lado, a solução analítica de tais equações nem sempre é conseguida. Além disso, na maioria das vezes, é necessário simplificar as condições de limites dessas equações - as quais correspondem às circunstâncias em que o fenômeno se dá na natureza, em geral complexas. Isso veio a exigir solução dessas equações por métodos gráficos e numéricos ou, mesmo, utilização de modelos físicos simplificados.
Exemplo muito bem-sucedido de solução gráfica foi o da rede de fluxo, traçada à mão, obedecendo a regra de que as linhas de força eram todas normais às linhas eqüipotenciais. Tal método foi empregado para resolver a equação de Laplace em problemas de hidráulica dos solos ou de eletrostática.
Matematicamente surgiu o cálculo numérico como, por exemplo, o das diferenças finitas, pelo qual os diferenciais das equações eram substituídos pelos valores das diferenças finitas das variáveis. Disso resultou um sistema de equações lineares simultâneas, o qual seria resolvido pelas técnicas de cálculo que estavam sendo desenvolvidas na época.
Mas a questão só veio a ser completamente solucionada quando, logo depois da Primeira Guerra Mundial, as universidades americanas começaram a montar seus primeiros computadores eletrônicos - os quais permitiam o cálculo automático de equações quando eram transformadas, por processos matemáticos, em cálculo numérico - utilizando um sistema numérico binário, isto é, cujos algarismos são somente 0 e 1. Zero, correspondente ao circuito elétrico fechado e um, ao aberto.
Com o desenvolvimento dos computadores fez-se necessária a elaboração de métodos para transformar as equações diferenciais em numéricas, objetivando tornar o seu cálculo mais rápido. O problema veio a ser resolvido pelo emprego, entre outros, do método dos elementos finitos - baseado no cálculo variacional elaborado por Euler há mais de dois séculos.
Com a computação eletrônica digital tornou-se possível a solução de, em tese, qualquer equação nas condições de limites mais complexos, atualmente expressas em simbologia das mais abstratas. Em grande número de casos, porém, as próprias condições de contorno ou limites não são inteiramente conhecidas. Há, então, que se recorrer às simulações matemáticas para resolver o problema. Parte-se de um modelo matemático, o qual é resolvido pela simulação de condições diversas, que definiriam prováveis circunstâncias em que o fenômeno poderia acontecer. Para tanto são desenvolvidas técnicas de simulação em computadores, pelas quais as soluções obtidas sob diferentes condições de limites são comparadas e avaliadas entre si para se chegar a uma solução adequada. Assim são resolvidos problemas abrangendo toda a natureza: desde problemas cosmológicos extremamente complexos, referentes à constituição e à origem do universo, até questões tecnológicas que envolvem a vida diária da humanidade ou simplesmente referem-se a questões particulares.
Exemplo interessante de utilização do processo de simulação matemática é o caso da pesquisa sobre as conseqüências do fechamento das adufas da barragem de Tucuruí sobre o rio Tocantins para enchimento do reservatório, realizado entre os meses de setembro e outubro de 1984.
O estudo teve dupla finalidade: em primeiro lugar, verificar as conseqüências do fechamento do rio no que diz respeito à saúde, alimentação, transporte e abastecimento de água das populações ribeirinhas, à jusante da barragem; em segundo, verificar a influência do fechamento do rio Tocantins sobre a salinidade da água de abastecimento de Belém do Pará, levando em conta as marés oceânicas que não só atingiam esse ponto como chegavam mesmo ao pé da barragem de Tucuruí, 250 km à montante.
A análise da primeira questão foi feita a partir das equações diferenciais de continuidade da vazão e da dinâmica de propagação das ondas ao longo de um canal. Essas combinadas levaram a uma equação diferencial, que foi integrada por meio do método das diferenças finitas, o qual transforma a equação num sistema de equações lineares algébricas simultâneas. Essas foram então calculadas por um computador, tendo seus parâmetros determinados por observações de registros diários de níveis d'água em vários pontos do rio e registros mareográficos em locais próximos à confluência do rio com a baía de Marajó (23).
O modelo matemático da intrusão salina na água de abastecimento de Belém era uma equação diferencial que relacionava a vazão fluvial com o valor médio da salinidade na seção e no ciclo de maré. A vazão fluvial era a correspondente à combinação das dos rios Pará, Tocantins e Guamá. Também aqui procedeu-se à transformação da equação diferencial num sistema de equações algébricas lineares simultâneas e seu cálculo pelo computador (24).
A concordância, dentro de uma margem correspondente à precariedade das informações disponíveis, veio confirmar que o método de simulação matemática, nos cálculos eletrônicos, é um instrumento hábil e utilíssimo para a previsão de fenômenos naturais complexos, não só nas áreas das ciências pura mas também nas das tecnologias.
Contudo, não eram suficientes somente as equações diferenciais e as estatísticas para que se completasse a matematização da natureza. Necessitava-se ainda de uma série de leis empíricas, incluindo parâmetros relativos a propriedades das matérias, tais como elasticidade, permeabilidade, condutividade térmica, resistência elétrica etc. Isso exigia a matematização da própria matéria - o que não foi possível pelas ciências clássicas. Para se chegar à tal matematização foi necessário o desenvolvimento não só da mecânica quântica mas também da teoria da relatividade. A primeira esclareceu a natureza corpuscular da matéria e conduziu à expressão matemática de suas propriedades por meio da física do estado sólido (25) e da ciência dos materiais amorfos (26), baseadas em estatística quântica. A segunda demonstrou que a principal característica da matéria, a sua gravidade, decorre de circunstâncias relacionadas com o espaço e o tempo.
A matematização da matéria, entretanto, só se torna possível quando as idéias aristotélico-platônicas sobre a indeterminabilidade da matéria são abandonadas pela ciência moderna e substituídas pelas do atomismo - para o qual a natureza é constituída tão somente por átomos e vácuo. Esse conceito está descrito no texto de Roberto Boyle, publicado em 1661, The sceptical chymist (27). Entretanto, foi somente no primeiro decênio do século xix que cientistas, de várias nações de uma Europa dilacelerada pelas guerras napoleônicas - John Dalton, inglês; Joseph-Louis Gay-Lussac, francês; Amedeo Avogrado, italiano; J.J. Berzelius, sueco - estabeleceram as bases da teoria química atômica da matéria. Dalton lançou a conjectura de que os diferentes elementos eram constituídos por átomos maciços e indivisíveis, diferentes entre si somente por seus pesos, e que se combinavam entre si para formarem as substâncias químicas. Berzelius, entre 1809 e 1814, numa enorme série de experiência, determinou os pesos atômicos com relação ao oxigênio.
A possibilidade de correlação entre as propriedades dos elementos químicos e seus pesos atômicos, porém, só aparece quando o químico russo Dimitri Mendeleyev publica seus Princípios de química, em 1869, cujo capítulo Agrupamento dos elementos e lei periódica foi traduzido para o alemão em 1895 (28). Nesse agrupamento, feito com base nos pesos atômicos, tanto os elementos que caíam nas mesmas colunas quanto os que caíam nas mesmas linhas tinham propriedades químicas semelhantes e se repetiam periodicamente. A razão dessa coincidência só foi explicada quando surgiu a física atômica, revelando a estrutura interna dos átomos, no início do nosso século.
Depois que Faraday estudou o fenômeno da eletrólise, mostrando que uma substância química dissolvida em água se decompõe em íons eletrizados, já se pôde conjecturar que a estrutura atômica tinha algo a ver com a eletricidade. Depois que Crookes descobriu, em 1879, os raios catódicos - partículas de cargas negativas por serem sensíveis a placas carregadas positivamente e colocadas paralelamente à sua trajetória - percebeu-se que haveria nos átomos partículas de carga elétrica negativa e foi possível medir suas cargas e massas. Foi Antoine Henri Becquerel, porém, quem primeiro notou que sais de urânio emitiam radiações que ionizavam o ar. Pierre e Marie Curie, depois de isolarem elementos mais radioativos que o usual, demonstraram que tais irradiações se compunham de elétrons (raios b), partículas carregadas positivamente (raios a) depois identificadas como núcleos de hélio e raios semelhantes aos raios x (raios g). Sir Ernest Rutherford, interpondo uma delgada folha de ouro entre uma amostra de rádium uma chapa sensível, pôde então conjecturar a estrutura interna dos átomos como constituída por um núcleo, de dimensões reduzidíssimas, com carga positiva, no qual se concentrava a massa dos átomos e elétrons girando em torno do núcleo em um espaço vazio. Para tornar esse modelo estável, Niels Bohr, em 19l3, postulou que os elétrons só poderiam girar em órbitas determinadas em função do quantum da energia de Planck. Assim, só emitiriam ou absorveriam energia ao saltar de uma dessas órbitas para outra. Esse modelo foi justificado por explicar as regularidades das raias do espectro de emissão do hidrogênio quando aquecido. Entretanto, as linhas espectrais dividiam-se em vários conjuntos de linhas justapostas. Para explicar esses detalhes dos espectro de emissão foi necessário admitir que não só os raios das órbitas dos elétrons determinavam as energias de emissão mas, também suas formas elíticas. Essa energia dependeria também de sua rotação em torno do próprio eixo, podendo essa ser para a direita ou para a esquerda. Todos esses fatores determinariam o nível energético dos elétrons e seriam identificados por quatro números quânticos designando respectivamente: o raio médio; a forma elítica das órbitas; o movimento angular da rotação do elétron; e a própria rotação (spin) do elétron. Esses quatro números quânticos determinariam a posição dos elétrons em suas órbitas e correlacionar-se-iam com as propriedades químicas dos átomos.
A tabela de Mendeleyef foi reagrupada na ordem do número Z de elétrons, e em relação aos números quânticos. Assim, as propriedades químicas dos elementos foram melhor relacionadas com suas estruturas atômicas. Com isso fortaleceu-se a idéia de que seria possível se deduzir o valor das propriedades químicas da matéria a partir de sua estrutura atômica.
Mas a dificuldade de adaptar o modelo de Bohr a elementos de muitos elétrons foi se agravando. Ao mesmo tempo, foram sendo estudados fenômenos os quais mostraram que as partículas atômicas às vezes apareciam como ondas capazes de se refletirem e se difratarem. Em 1924 os irmãos De Broglie demonstraram experimental e teoricamente essa complementaridade entre partículas e ondas. Chegou-se mesmo a conjecturar que as entidades quânticas não eram partículas, nem ondas; só seriam umas ou outras depois de registradas experimentalmente e expressas matematicamente.
Foi então necessário que se abandonasse qualquer modelo do átomo como sistema planetário, passando-se a entendê-lo como um núcleo envolto em atmosfera ondulatória. Desenvolveu-se a seguir uma nova mecânica quântica, por parte de Erwin Schrödinger, indicando uma função que mediria as variações, nos pontos e nos tempos, em que a ondulação da atmosfera eletrônica dos átomos se dava. Em outras palavras, a equação da função y expressaria a variação da densidade elétrica em torno do núcleo atômico. Em 1926, Max Born demonstrou que o quadrado da amplitude da função exprime a probabilidade daquela densidade elétrica. Em átomo de um só elétron tal probabilidade pode ser entendida como a de encontrar-se o elétron num ponto e no instante correspondente.
Simultaneamente a essa teoria ondulatória, apareceu outra sobre a estrutura atômica: a de Werner Heisenberg, apoiada nas equações da mecânica clássica de Hamilton. Essas equações envolvem a energia total H (a qual é função das quantidades de movimento e respectivas coordenadas espaciais dos pontos de massa) do sistema. Essa função é tomada, em sua forma generalizada H(qipi), como função de ponto de um espaço fase 2i - dimensional, e as variáveis independentes passam a ser consideradas como matrizes. Heisenberg, bem utilizando a álgebra matricial, construiu sua teoria matemática. Pode-se demonstrar que a matriz diagonal correspondente à matriz H é equivalente ao nível de energia E das equações de Schrödinger. Portanto, ambas as formalizações representam dois aspectos da mesma teoria: o primeiro, enfatiza o aspecto ondulatório; o segundo, o movimento das partículas.
Esses formalismos só foram aceitos como verdadeiros depois de verificados experimentalmente por meio da observação do que acontecia quando os átomos eram bombardeados por partículas dotadas de energia suficiente para quebrá-los. A princípio usaram-se para tal fim os raios cósmicos e, depois, aceleradores de partículas cada vez mais poderosos. Essas experiências confirmaram a teoria; porém, é de se lembrar que elas foram, por sua vez organizadas de acordo com a teoria, ou seja, para serem realizadas e seus resultados interpretados, de alguma forma pressupunha-se a constituição quântica da matéria.
Curiosamente, em 1928, Dirac, estendendo a teoria ondulatória ao caso de um elétron livre movendo-se com velocidade próxima à da luz, concluiu que as equações levariam a duas soluções para o nível energético do elétron, uma delas negativa. Inferiu que quando fosse concentrada energia suficiente num ponto do espaço ocupado por um elétron de nível energético negativo, surgiria uma partícula de massa igual à do elétron, mas de carga elétrica positiva.
Em 1933, Occhialini observou nos raios cósmicos recolhidos numa câmara de névoa, ou chapa fotográfica, o aparecimento de partículas que deixavam duas riscas, originadas num mesmo ponto. Na presença de um campo magnético, uma delas tomava a direção positiva e a outra a negativa. Eram um elétron e um anti-elétron positivo, que veio a ser denominado posítron.
Tal fato confirma a idéia de que as equações matemáticas, verificadas como verdadeiras, não só simbolizam, mas descobrem e englobam a realidade.
A decisão de renunciar à figuração dos elétrons girando em órbitas em torno do núcleo atômico, apresentada nas teorias de Schrödinger e Heisenberg, foi acentuada pelo princípio de incerteza introduzido pelo último, em 1927. Heisenberg mostrou que seria impossível determinar, ao mesmo tempo, as coordenadas do ponto onde estivesse um elétron e a quantidade de movimento.
Uma série de experiências posteriores, organizadas e interpretadas de acordo com a complementaridade onda-partícula e com o princípio de incerteza, levaram a observar uma estranha ambigüidade da posição, da identidade e da trajetória dos fótons e, por extensão, de quaisquer partículas atômicas que se comportassem como ondas. Dessas experiências pode-se concluir que um mesmo fóton passa, ao mesmo tempo, por duas fendas feitas num anteparo. Recentemente foi demonstrado que a simples procura de informação sobre em qual dos dois furos passara o fóton, já é suficiente para impedir a formação de bandas de interferência que se formariam pela passagem de ondas de fótons pelas duas fendas.
Portanto, as experiências organizadas e interpretadas de acordo com a teoria ondulatória levam à conclusão de que partículas atômicas comportam-se em desacordo com as leis de identidade e da não-contradição que deveriam reger a realidade, conferindo a elas um caráter fantasmagórico. Entretanto, a equação de Schrödinger é única, coerente consigo mesma e verdadeira; por ser concordante com a experiência; portanto define melhor uma realidade do que a própria experiência. Assim, poder-se-ia conjecturar que as equações matemáticas não seriam apenas símbolos do real; elas passariam a ter características da própria realidade.
Na década dos anos 30 a mecânica quântica já estava suficientemente desenvolvida para que surgissem análises estatísticas do comportamento de elétrons e fótons, considerados como nuvens de partículas; os primeiros subordinavam-se à estatística de Ferni, que obedece ambos os princípios quânticos de incerteza e de exclusão; os segundos à estatística de Bose, que obedece ao princípio de incerteza mas não ao de exclusão. Verificou-se posteriormente que os prótons e os neutros obedecem à estatística de Ferni, e os mésons, a de Bose. Por esse motivo, os primeiros foram chamados de fermions e os segundos de bosons, em homenagem aos criadores das estatísticas quânticas.
Aplicando-se a estatística de Ferni à nuvem de elétrons livres numa estrutura cristalina, como a dos metais, chega-se a exprimir a condutividade elétrica em termos da energia dos elétrons e, portanto, de sua temperatura absoluta. Torna-se evidente que a temperatura absoluta pode ser expressa de forma semelhante à da condutividade térmica. Há tipos de ligações atômicas - por exemplo, nos sólidos não-metálicos - que não permitem a existência de elétrons livres por serem isolantes. Entretanto, há materiais intermediários entre isolantes e condutores: os semicondutores.
Os semicondutores (como o silício e o germânio) apresentam condutividade intrínseca formada quando, por motivo de eventual impureza em sua massa, elétrons conseguem se libertar de suas ligações atômicas. Então, não só esses elétrons conduzem eletricidade como também os lugares onde eles estavam fixos passam a funcionar como vazios eletrônicos. Quando um campo elétrico é aplicado ao material semicondutor, elétrons podem se mover para esses espaço, deixando vazios os seus lugares. Assim, forma-se como que uma corrente positiva em sentido oposto à dos elétrons. Há impurezas nos semicondutores que fazem prevalecer as cargas negativas (elétrons) e, outras, as positivas (vazios). É fácil verificar-se que se dois desses semicondutores forem postos em contato e seu conjunto submetido a potenciais elétricos alternados, eles funcionarão como retificadores de corrente. A aplicação dos princípios da física dos sólidos a esse fenômeno levaram à descoberta e à fabricação dos transistores - dispositivos eletrônicos compostos pela justaposição de semicondutores, como mencionado - utilizados para controlar, amplificar e retificar correntes elétricas.
Semelhantemente a esse exemplo, a mecânica quântica já conseguiu expressar matematicamente - através da física dos estados sólidos - as propriedades da matéria sólida cristalina. e está em vias de fazê-lo no que se refere à matéria amorfa. Contudo, deve-se lembrar que essas conquistas foram precedidas por análises qualitativas, experiências e ensaios no campo da tecnologia através de uma ciência de engenharia: a ciência dos materiais. Dessa forma, confirma-se que a matematização da natureza não é um processo simplesmente científico; atende também a uma necessidade tecnológica.
A partir de então o problema da física quântica foi investigar a natureza e a estrutura interna daquele pequeníssimo núcleo do átomo no qual se concentrava a sua massa. Contudo, por pequenas que fossem suas dimensões, ele seria composto por partículas ainda menores como era de se supor desde que se descobriu a desintegração radioativa: prótons, com massa milhares de vezes superior às dos elétrons e carregados positivamente; e neutros, de massas semelhantes às dos prótons, porém sem carga elétrica. Matematicamente chegou-se à conclusão que essas partículas também admitiam antipartículas, à semelhança do que se tinha observado com os pósitrons. Deve-se lembrar, entretanto, que todas essas antipartículas têm vida extremamente curta. A matéria dominante no universo é constituída por prótons, nêutrons e elétrons movidos ou aglutinados por energias.
No ano de 1935, em uma série de conferências proferidas em Berlim, Heisenberg já se referia sumariamente a um físico japonês - Hideki Yukawa - que propusera a existência de um campo de forças nucleares, diferente do eletromagnético. Tal campo seria responsável pela atração atuante a pequeníssimas distâncias entre prótons e nêutrons. Teoricamente, os quanta desses campos nucleares deveriam ter massa cerca de 200 vezes maiores do que a massa do elétron. Em 1937 Anderson Neddermeyer descobre partículas de massa na proporção de 200 vezes à do elétron nos raios cósmicos, as quais foram chamadas mésons. Mas, esses mésons não tinham as características requeridas pela teoria de Yukawa.
Nos anos 60 começa-se a considerar a idéia já concebida de eletro-dinâmica quântica (29) - explicando a interação entre cargas elétricas por intermédio de fótons - como possível modelo de uma teoria matemática para esclarecer a interação entre as partículas do núcleo atômico. Tais forças são chamadas de fortes e fracas: as primeiras atuando a pequeníssimas distâncias entre os núcleos e intermediadas pelos mésons; as segundas atuando entre as demais partículas, por intermédio de uma partícula postulada por Steven Weinberg em sua Teoria unificada da i,teração entre partículas (30). Essa teoria está sendo revista com referência às forças fortes uma vez que, do seu estudo, resultou algo não se enquadrar adequadamente.
Dessas especulações inferiu-se a existência de subpartículas intranucleares: os quarks, unidos entre si pelos gluons, que formam os prótons, os neutros e os mésons. Depois de muitos esforços para se quebrar as partículas em quarks, os atuais poderosos aceleradores de partículas o estão conseguindo.
A elaboração de uma teoria matemática que unisse as forças eletromagnéticas com as nucleares e, eventualmente, pudesse ser estendida às forças gravitacionais, intermediadas pelas hipotéticas partículas grávitons - acompanhadas pelos gravitinos, correspondentes aos neutrinos dos elétrons e mésons - constituir-se-ia como uma construção da mente humana de tal monta que se poderia, evocando Hegel, dizer que a natureza é uma explicitação da idéia; em outras palavras, que a natureza material seria moldada pela mente humana. Isso porém não é inteiramente verdadeiro: é um pressuposto da ciência moderna que toda teoria verdadeira deve conformar-se com resultados de experiências. Contudo insiste-se, sob o aspecto metodológico das ciências modernas, que a experiência científica deve, por sua vez, ser organizada e interpretada de acordo com a teoria. Portanto, o fenômeno observado e experimentado já tem em si a marca do pensamento humano.
Dessa forma, assim como não se pode aceitar o idealismo como teoria da realidade radical, também não é possível aceitar o realismo. É possível sustentar-se haver complementaridade entre a mente humana e o mundo físico de tal ordem que suprimindo um dos pólos o outro desapareceria. A realidade radical, isto é, a fonte de onde brota toda a realidade com que nos defrontamos, contra a qual esbarramos, controlamos ou somos por ela subjugados no cotidiano de nossas vidas, é uma dualidade polar: mente-mundo que ainda não foi suficientemente analisada e compreendida pela filosofia.
Quer-me parecer que a expressão dessa realidade dual está justamente nas equações matemáticas, quando essas recebem o veredicto da comprovação experimental. Tal fato está patente no campo das tecnologias ao se utilizar uma equação matemática para projetar uma obra ou criar um produto e, conseqüentemente, a construção da obra ou a fabricação do produto trazem ao mundo aquilo que antes foi somente pensado. Enfim a tecnologia é capaz não só de prever e prover, mas de criar o real através da conjugação do pensamento teórico com a ação prática, ambos se conformando um com o outro.
Contudo, tal aspecto da equação matemática - como reveladora do caráter dual da realidade - está mais nitidamente expresso nas equações da teoria da relatividade e da mecânica quântica, quando corroboradas pela experiência científica. Essas equações - que vão além da capacidade intuitiva da mente humana - evidentemente têm origem mental, mas revelam aspectos da realidade que nos impedem tanto de tomar posição idealista quanto realista. Elas estão se impondo, como modelos sugestivos de uma futura teoria metafísica da realidade radical, àqueles que se interessam por procurar compreender a essência da natureza.
Assim poder-se-ia completar o dito de Galileu: "o livro da natureza está escrito em caracteres matemáticos", acrescentando-se a ele: mas, algumas das páginas desse livro estão sendo agora escritas e outras ainda o serão, no futuro.
Notas
Milton Vargas é professor emérito da Escola Politécnica da USP e autor de Introdução à mecânica dos solos, Ciência e verdade e Para uma filosofia da tecnologia.
Conferência do Mês do IEA-USP feita pelo autor em 19 de março de 1996.
Datas de Publicação
-
Publicação nesta coleção
07 Jun 2005 -
Data do Fascículo
Dez 1996