Subscribe Twitter Facebook

quinta-feira, 30 de dezembro de 2010

Seria a matemática um bicho de sete cabeças?

Recebi um e-mail de meu amigo Vladimir Thiengo (colaborador) no qual havia um artigo do Jornal da Ciência, cujo título "Matemática, o bicho-papão também da universidade" me despertou curiosidade e interesse. O artigo trata do problema que diversos alunos de graduação em ciências exatas têm com uma disciplina chamada "Cálculo". Essa disciplina está entre as primeiras destas graduações e é pré requisito para diversas matérias. Tudo bem, quem durante o ensino médio ou fundamental não conheceu alguém que tinha uma grande dificuldade em matemática ao ponto mesmo de repudiá-la? Mas, como explicar que alunos que escolheram verter por esses caminhos, exatemente por serem bons com números, tenham tanta dificuldade nessa disciplina?
As universidades estão sendo forçadas a suprir a falta de preparo dos alunos. Na UFF (Universidade Federal Fluminense) por exemplo, os alunos têm uma grande revisão de matérias do ensino médio antes de aprender cálculo I. E ainda assim, muitos ficam reprovados.
Esse artigo do JC mostra uma iniciativa louvável para tentar amenizar o problema. Um professor em Brasília, leciona cálculo a seus alunos de ensino médio como uma atividade extraclasse para os que se interessam, sem cobrar nada. Essa atitude deveria ser implementada por outras escolas. Pois, quem já passou ou está passando por essa matéria sabe o quão desesperadora ela é. Quem não teve dificuldade, pelo menos viu pessoas em volta arrancando os cabelos.
Particularmente, creio que o problema não seja a cobrança dos professores das universidades. Eles tem de ser muito exigentes mesmo. A grande questão é a falta de base com a qual os estudantes chegam as faculdades. Cálculo não é nenhum "bicho de sete cabeças", ou não deveria ser àqueles que escolheram esse caminho. Mas é de fato, uma matemática muito diferente daquela ensinada nas escolas, por isso há um choque tão grande por parte dos alunos. As escolas deveriam prepara-los melhor para seu futuro. De nada adianta aprova-los para vestibulares, se eles vão ficar reprovados logo nas primeiras disciplinas de suas graduações.


Quem quiser ler o artigo original do Jornal da Ciência: Matemática, o bicho-papão também da universidade

E para quem quiser conhecer um pouco mais sobre essa disciplina veja o site abaixo:

E-cálculo - "Esse site é fruto de um projeto aprovado pela Pró-Reitoria de Graduação da Universidade de São Paulo (USP)"

Vitor S. Chagas - Editor do Clave de Pi

quarta-feira, 29 de dezembro de 2010

Te ensinaram errado, gravidade não é somente uma aceleração


O que é gravidade? É simplesmente uma aceleração, ou é algo muito mais complexo que estamos prestes a descobrir? O intuito deste pequeno texto é mostrar como o avanço da física e a chamada “teoria M” estão bem próximos de responder esta indagação. Não sou especialista em física quântica, mas não posso ficar parado nem quieto ante tão maravilhosa descoberta.
Antes, você precisa saber o que é e o que diz a teoria das cordas. ( Acesse esse link : http://clavedepi.blogspot.com/2009/12/teoria-m.html). Se você já entende um pouco, continuemos.
Bem, em nosso universo existem forças. A força gravitacional, a força eletromagnética, a força que “cola” os átomos, que chamarei de força nuclear forte, e a força responsável pelo decaimento radioativo, que chamaremos de força nuclear fraca. Newton foi o “descobridor” da força gravitacional. Esta força que faz os planetas girarem em torno das estrelas e faz as coisas caírem no chão. Temos o costume de achar que a força gravitacional é muito forte, porém ela é muito, muito, mas muito fraca mesmo se comparada às outras. Só para termos uma noção, se formos compara a força da gravidade com a força eletromagnética, a força eletromagnética é aproximadamente 1000000000000000000000000000000000000 (um seguido de 35 zeros) mais forte que a gravitacional. Mas por que toda essa diferença? É o que tentarei explicar.
A teoria das cordas diz que, dentro de todos os quarks (que compõem o nêutron e o próton dos átomos), existam cordas de energia que vibram de formas diferentes. Cada vibração representa um tipo de partícula diferente. Mas, para essa nova teoria ser válida, digamos que seriam necessárias, além das 4, mais 7 dimensões, totalizando 11 delas. E implicaria a existência de alguns infinitos universos paralelos. Mas, não irei focar neste assunto, apesar de ser interessantíssimo. O que quero focar é uma singular partícula chamada “gráviton”. Para entendermos um pouco melhor, temos que deixar claro que as forças acima citadas interagem através de partículas, o que não irei me aprofundar neste post, mas, segundo esta teoria a força gravitacional seria “causada” pelos grávitons. Os grávitons são singulares por apresentarem uma corda circular e de baixa energia. Mas, então por que a gravidade é tão fraca?
Uma das grandes e mais interessantes implicações da teoria das cordas é que, as partículas grávitons podem “sair” de nosso universo, e ir para outros universos paralelos. Devido a sua forma singular, ela simplesmente dá uma escapada, e consegue atravessar a membrana que separa os universos. Então, imagine a gravidade como um líquido, que pode escorrer livremente entre este universo e os outros adjacentes. Bem, o que temos de gravidade em nosso universo é apenas parte de um todo. Sendo assim, a força gravitacional pode sim ser  tão forte quanto as outras, ela apenas flui entre os universos. O único problema é que conseguir provas da existência e “flagrar” a partícula gráviton saindo de nosso universo e indo para o outro é meio complicado. No entanto, para isso estão os aceleradores de partículas. Por isso, torçam para que consigam logo achar o gráviton e que consegamos estudá-lo com mais clareza.
Será então, que seria possível a comunicação entre os universos através de ondas gravitacionais? Será que num futuro distante, poderemos nos comunicar com os seres de outros universos por um aparelho parecido com o celular? Bem, não é tão impossível. Contudo, se algum dia conseguirem, por favor, não se esqueçam de divulgar nosso blog.

Jhonatas Alfradique – Editor do Clave de Pi

sexta-feira, 24 de dezembro de 2010

Feliz Natal

Queridos leitores,

Nós do Clave de Pi desejamos a vocês um feliz natal.
Para os cristãos: festejem porque este dia representa o nascimento do mais importante homem da história. Aquele que transmitiu conhecimentos que perduram há dois mil anos. Lembrem-se do valor desta data. E principalmente do principal ensinamento Dele, "ame ao próximo como a ti mesmo".

Para aqueles que não acreditam: festejem, esta é uma excelente data para reunir a família e os amigos. Esperamos que ganhem muitos presentes!

E lembrem-se caros leitores, vocês são nosso maior presente. Obrigado pela confiança!

Feliz Natal.
Dos editores,
Jhonatas Alfradique e Vitor S. Chagas

quinta-feira, 23 de dezembro de 2010

Observações indicam que energia escura é invariável


Projeto multinacional mede energia liberada por 71 supernovas
por David Biello


Quando Albert Einstein trabalhava em suas equações da teoria da relatividade, lançou uma constante cosmológica para mostrar o Universo em equilíbrio harmonioso. No entanto, observações posteriores por Edwin Hubble provaram que o Universo não é estático. Pelo contrário, as galáxias estavam se movimentando em velocidades variadas. Einstein então abandonou esse conceito de equilíbrio, chamando-o de maior erro da sua vida acadêmica.

E observações na década de 1990 provaram que o Universo não se expandia lentamente, mas muito rápido. Isso parecia apontar para uma energia escura que preenche o espaço. Uma série de teorias tem sido desenvolvida para explicar o que pode ser esta energia escura.

Agora, novas observações de uma equipe internacional de astrônomos parecem mostrar que a energia escura é invariável ao longo do espaço e do tempo. Ao medir as distâncias de 71 supernovas, os cientistas foram capazes de determinar, com um elevado grau de confiabilidade, o grau de energia produzida pela explosão da estrela. Os pesquisadores também incluíram esses dados em uma equação que mede a relação entre pressão e densidade, descobrindo que a energia escura deve ser inferior a 0,85 – muito perto da constante cosmológica de Einstein de -1. "Nossa observação conflita com uma série de idéias teóricas sobre a natureza da energia escura, segundo as quais ela deve mudar à medida que o Universo se expande", diz o membro da equipe de Carlberg Universidade de Toronto. Os resultados serão publicados em uma edição futura da Astronomy & Astrophysics.

As 71 observações de supernovas são os resultados de apenas um ano do estudo Supernova Legacy Survey, realizado com telescópios em todo o mundo. Os dados recolhidos ao longo dos próximos quatro anos deverão aumentar a precisão da localização e ajudar os pesquisadores a determinar mais sobre a natureza enigmática da energia escura, que parece constituir pelo menos 70% do Universo.

Fonte: Scientific American Brasil

sábado, 18 de dezembro de 2010

Jimi Hendrix - Mais que uma lenda, um mito do rock

Jimi Hendrix foi um músico excepcional no sentido exato da palavra. Autodidata e canhoto, tocava de maneira completamente estranha uma guitarra Fender Stratocaster para destros, com as cordas invertidas. Revolucionou a maneira de tocar guiatarra, desenvolvendo o uso da alavanca e principalmente dos pedais conhecidos como wha-wha. Mais do que isso colocou a figura do guitarrista como principal personagem nas bandas de rock. Seus solos e riffs foram uma das principais raízes para o nascimento do heavy metal.
Johnny Allen Hendrix nasceu em Seattle, Washington, em 1942. O seu nome foi posteriormente alterado pelo pai ainda durante a infância para James Marshall Hendrix. Aos 16 anos começou a tocar violão, participando de um grupo chamado Velvetones. Aos 17 ganhou do pai uma guitarra elétrica e entrou para o grupo Rocking Kings que mais tarde mudaria de nome para Thomas & The Tomcats. Jimi resolveu abandonar a escola e entrar para um batalhão de paraquedismo do exército, de onde foi logo desligado em virtude de uma fratura no joelho. Sem a escola e não podendo mais seguir carreira no exército decidiu se dedicar exclusivamente à música, tocando em bares e clubes com o amigo Billy Cox em uma banda chamada King Kasuals. Em 1963 Mudaram-se para New York, onde atuou também como músicos de estúdio, gravando e tocando com os Isley Brothers, Jackie Wilson e Sam Cooke.
Em 1965, em uma de tantas apresentações ao vivo como acompanhante de bandas diversas, Jimi chamou a atenção de Little Richard, grande astro e pioneiro do rock and roll dos anos 50. Apesar da excelente recepção por parte do público e da boa química surgida entre o vocalista e guitarrista, o ego imenso de Little Richard não permitiria que um guitarrista talentoso ofuscasse a sua presença no palco. Com a desculpa de que Hendrix havia perdido o ônibus da banda após um show em Nova York, Little Richard o demitiu, felizmente não antes que alguns dos shows houvessem sido devidamente registrados.
Devido à excelente repercussão de suas performances com Little Richard Jimi consegue um contrato de dois anos com a gravadora Columbia. Rapidamente deixa de ser figurante e monta sua própria banda, Jimmy James and The Blue Flames. O jovem guitarrista canhoto chama a atenção não apenas pelos solos imprevisíveis e de estilo inédito até a época, mas também pela extrema habilidade em tocar a guitarra com os dentes ou nas costas.
Chas Chandler, baixista do grupo The Animals, ouve a banda e se impressiona, pede a Jimi para ser seu empresário e passa a divulgar a banda na Inglaterra. A única condição de Hendrix foi a de que, chegando a Londres, fosse apresentado a Eric Clapton, no que foi prontamente atendido por Chandler. A admiração entre Hendrix e Clapton foi mútua, apesar dos estilos diferentes. Mitch Mitchell é chamado para ser o baterista da banda, rebatizada de The Jimi Hendrix Experience. Logo gravam três singles, Hey Joe, Purple Haze e The Wind Cries Mary, seguidos de extensa divulgação em rádios e tvs inglesas. Em abril de 1967 sai o seu primeiro LP, Are You Experienced, um clássico do rock de todos os tempo. Após uma turnê como banda de apoio na Europa fazem sua estréia na America no Monterey Pop Festival na California, logo após seguindo em turnê americana como banda de abertura dos Monkees.
Ainda em 1967 sai o segundo álbum, Axis: Bold as Love, logo seguido por Electric Ladyland (em janeiro de 1968) que continha o hit All Along the Watchtower de Bob Dylan. Segue-se uma fase de muitas participações de Hendrix como músico ou compositor em discos de artistas diversos. A banda Experience é desfeita e Hendrix monta uma nova banda com Mitch Mitchell, Billy Cox, o segundo guitarrista Larry Lee e os percursionistas Juma Sultan e Jerry Velez. O novo nome da banda é Gypsy Sons. Logo Mitch Mitchell seria substituído por Buddy Miles e a banda mudaria de nome para Band of Gypsys.
Em 1970 a banda Experience seria reformulada e lançariam The First Rays of the New Rising Sun, logo depois mudando novamente de nome para Cry Of Love.
Em 18 de setembro de 1970 Jimi Hendrix entrou em coma em um quarto de hotel de Londres, sozinho, sendo encontrado desacordado por uma equipe de paramédicos. A caminho do hospital foi constatada a sua morte em virtude de sufocamento por seu próprio vômito. Existem muitas controvérsias sobre a real causa da morte, mas provavelmente Hendrix sofreu uma overdose de pílulas tranquilizantes.

Confira um de seus solos:

sexta-feira, 17 de dezembro de 2010

Provas de Matemática IME - 1944 a 2009

Olá pessoal

Achei essa apostila de provas e quero compartilhar com vocês. São 324 páginas de pura prova de matemática. As resoluções começam desde as provas de 1977, mas, são as provas são desde 1944.

Enfim, aproveitem e divulguem o blog.


É uma boa pedida para quem quer começar estudar já nas férias.

Clave de Pi - "O conhecimento é a harmonia da vida."

Os dez maiores avanços da década

A revista "Science", publicação científica da Associação Americana para o Progresso da Ciência (AAAS, na sigla em inglês), divulgou a lista das dez descobertas científicas de 2010, elegendo a criação de uma máquina que se mexe com base nas leis da mecânica quântica, aplicáveis a partículas subatômicas, átomos e moléculas.
Segundo a revista, até março de 2010 todos os objetos feitos pelo homem eram movidos de acordo com as leis da mecânica clássica. O mês, porém, ficou marcado pela criação de uma máquina – um pequeno pedaço de metal semicondutor, visível a olho nu – que se movimenta pelas regras da mecânica quântica. Até então, somente partículas subatômicas se mexiam com base nesse sistema de leis de movimento.


DESCOBERTAS DE 2010
Genoma sintético em bactéria – Pesquisadores do instituto do biólogo Craig Venter desenvolveram um genoma sintético, capaz de mudar a identidade de uma bactéria. O genoma foi inserido no lugar do DNA original do micro-organismo e gerou um novo conjunto de proteínas. Segundo a revista, no futuro a técnica poderá ser empregada para criar biocombustíveis, novos fármacos e compostos químicos úteis.
Genoma do Neandertal – O sequenciamento do genoma obtido a partir dos ossos de três mulheres Neandertais, encontradas na Croácia e vivas entre 44 mil e 38 mil anos atrás, permitiu a comparação entre o DNA humano moderno e de seus ancentrais.
Profilaxia do HIV – O combate ao vírus da Aids ganhou duas novas armas: um gel vaginal, composto por 1% do antirretroviral “tenofovir”, testado na África do Sul e capaz de reduzir até 39% das infecções em mulheres; e um remédio dado a um grupo de homens homossexuais e transexuais que levou a uma diminuição de 43,8% na transmissão do HIV.
Genes de doenças raras – O sequenciamento de áreas específicas do DNA mostrou que um único gene pode ser a chave para identificar mutações que causam dezenas de doenças raras.
Simulações de dinâmica molecular – O uso de computadores poderosos facilitou o estudo do movimento de átomos em proteínas.
Tecnologia em Genômica – A área da ciência responsável pelo estudo de genomas de animais e plantas agora conta com tecnologias mais rápidas e baratas para trabalhos sobre DNAs antigos e modernos. O Projeto 1000 Genomas é um exemplo de avanço, conseguindo identificar muitas das alterações no genoma que caracterizam os humanos.
Simulador quântico – A dificuldade imposta pelas equações usadas pelos cientistas para traduzir o que é visto no laboratório pode diminuir com a adoção de cristais artificiais, que oferecem respostas rápidas. Os cientistas acreditam que o uso dessas ferramentas pode auxiliar na compreensão da supercondutividade e da chamada física da matéria condensada.
Reprogramação de células adultas – Técnicas para fazer células adultas retornarem ao estado inicial de desenvolvimento, como se fossem células-tronco embrionárias, viraram padrão para o estudo de doenças, segundo a revista. Em 2010, os cientistas aprenderam a fazer isso utilizando o ácido ribonucleico (RNA, na sigla em inglês) sintético. A técnica leva a metade do tempo e é 100 vezes mais eficiente e segura para uso terapêutico.
Ratos mais propícios à pesquisa – A “Science” destaca o possível retorno do uso de ratos em pesquisas científicas, após um período de “dominação” dos camundongos. Mais utilizados em laboratório pela facilidade que os pesquisadores encontraram em "desativar" alguns genes para gerar uma determinada característica ao animal, os camundongos podem perder parte do prestígio, já que os últimos avanços mostram que a característica também pode ser desenvolvida em ratos.
AVANÇOS CIENTÍFICOS DA DÉCADA
Também foram eleitos pela revista os dez maiores avanços científicos da primeira década do século 21. Os jornalistas da "Science" escolheram dez áreas de pesquisas que cresceram muito nos últimos dez anos e chegaram à seguinte lista:
Aproveitamento do genoma “descartável” – Com a descoberta de regiões específicas do genoma, mais relevantes à pesquisa por codificarem proteínas, os cientistas privilegiaram estudos com apenas 1,5% do total do DNA. Mas o restante do genoma, anteriormente conhecido como DNA “junk” (lixo, em inglês), voltou a ser pesquisado e tem se mostrado tão importante quanto a parte mais "nobre" do genona, segundo a revista.
Mudanças na Cosmologia - A última década levou os cientistas a considerarem o espaço como composto por matéria bariônica (a comum, da qual é feita os materiais do cotidiano), a matéria e a energia escuras. Com a união dessas teorias, os cosmólogos construíram um modelo padrão para interpretar o Universo, com pouca margem para novas interpretações, segundo a "Science".
Biomoléculas antigas - A descoberta que o DNA e o colágeno podem ser conservados por milhares de anos forneceu importantes descobertas sobre vegetais, animais e humanos, gerando uma grande atividade paleontológica. A análise desse material permitiu, por exemplo, identificar adaptações anatômicas sofridas pelas espécies ao longo dos anos, impossíveis de serem detectadas somente pelo estudo de ossadas.
Água em Marte – Muitas evidências de água no Planeta Vermelho foram divulgadas em 2010. Os astrônomos descobriram que até mesmo a superfície do astro pode ter contido água, fora o volume do líquido preso nas calotas polares do planeta.
Reprogramação de células - Durante a primeira década do século 21, os cientistas aprenderam a reprogramar células adultas em versões "pluripotentes", que conseguem se transformar em quase todo o tipo de célula do corpo. Com o avanço nas pesquisas, a comunidade científica espera que, em breve, terapias celulares e a reposição de tecidos e até órgãos seja possível pela técnica.
Microbioma – Cientistas começaram a voltar a atenção para o ambiente no qual vivem vírus e bactérias. Segundo a revista, 90% das células em nosso corpo são micróbios, o que leva os pesquisadores a querer saber mais como mudanças em genes microbianos afetam o aproveitamento da energia que homens obtêm ao comer ou como o sistema imunológico reage.
Exoplanetas – No ano de 2000, eram apenas 26 planetas conhecidos fora do Sistema Solar. Atualmente, com o lançamento de sondas específicas para este fim como a Kepler, da agência espacial norte-americana (Nasa), este número ultrapassou 500. O objetivo agora é o de encontrar planetas cada vez mais similares à Terra, que reúnam condições para o desenvolvimento da vida.
Inflamações – Segundo a revista, a comunidade médica está cada vez mais alerta para o papel importante das inflamações no desenvolvimento de doenças crônicas como câncer, aterosclerose, diabetes e até obesidade.
Metamateriais – Físicos e cientistas conseguiram gerar materiais com propriedades inexistentes na natureza como a capacidade de guiar luz.
Mudanças climáticas – O aquecimento global e as alterações no clima ganharam força no cenário mundial, com a criação de eventos da ONU como as conferências do Clima e da Biodiversidade. Estudos de órgãos como a Nasa e a agência norte-americana que monitora as condições da atmosfera e dos oceanos (NOAA, na sigla em inglês) também comprovam que a temperatura não para de subir, sendo que 2010 poderá ser eleito como um dos anos mais quentes da história.

Fonte: G1

Máquina Quântica - O experimento do ano

Mecânica quântica aplica-se ao movimento de objetos macroscópicos


Mecânica quântica aplica-se ao movimento de objetos macroscópicos
Em um experimento histórico, cientistas demonstraram que uma pequena fita, visível a olho nu, vibra e não vibra ao mesmo tempo, e só escolhe seu estado de energia ao ser observada.[Imagem: O'Connell et al./Nature]
Cientistas da Universidade de Santa Bárbara, nos Estados Unidos, fizeram uma demonstração clara de que a teoria da mecânica quântica aplica-se ao movimento mecânico de um objeto grande o suficiente para ser visto a olho nu.
Novas questões e possibilidades
O experimento abre um mundo de novas questões e possibilidades, a maior delas sendo a mais fundamental de todas: será possível replicar em objetos macroscópicos a propriedade dos objetos quânticos de estarem simultaneamente em dois estados, ou ao mesmo tempo em dois lugares diferentes?
O conhecido experimento mental conhecido como "gato de Schrodinger" demonstra que um gato fechado em uma caixa, cuja vida dependesse unicamente do comportamento de uma partícula quântica, estaria vivo e morto ao mesmo. E a sua sentença definitiva de vida ou morte seria selada no momento em que o estado dessa partícula-carrasco fosse medido.
E os objetos quânticos podem se comportar tanto como partículas quanto como ondas, o que as permite estar em vários lugares ao mesmo tempo. Um elétron, por exemplo, pode estar em qualquer lugar dentre as possibilidades descritas por sua função de onda. Quando um cientista testa sua posição, sua função de onda imediatamente colapsa, fazendo com que o elétron se manifeste tão somente naquele exato local onde a medição está sendo feita.
Os cientistas já conseguiram até inverter essas medições, criando uma espécie de reencarnação quântica ao cancelar os efeitos de suas medições.
Interface com o mundo quântico
Há poucos meses, um outro grupo de pesquisadores havia demonstrado que uma esfera levitando por luz torna os fenômenos quânticos detectáveis numa escala maior, embora ainda microscópica.
Mas quem havia chegado mais perto de conectar o mundo quântico ao mundo macroscópico foi o grupo do Dr. Markus Aspelmeyer, da Áustria, que, em Agosto de 2009, estabeleceu uma interação entre um fóton e um ressonador micromecânico, criando o chamado acoplamento forte, capaz de transferir efeitos quânticos para o mundo macroscópico - veja Mundo quântico comunica-se com o mundo macro pela primeira vez.
Agora, Aaron O'Connell, John Martinis e Andrew Cleland demonstraram que um ressonador mecânico - uma pequena fita metálica que pode vibrar livremente - que foi resfriada até o seu estado fundamental de energia (ground state), funciona em nível macro conforme as probabilidades de mecânica quântica.
Estado fundamental de energia
O nível fundamental de energia equivale ao menor nível de vibração previsto pela mecânica quântica. Uma partícula nunca chega a ter um nível zero de energia, o que lhe daria uma velocidade e uma posição definidas, contrariando o princípio da incerteza de Heisenberg.
O simples fato de colocar um sistema no seu estado fundamental de energia já seria suficiente para colocar esta pesquisa nos anais da história da física.
Os pesquisadores alcançaram o estado fundamental construindo um ressonador mecânico para a frequência das micro-ondas. Ele opera em frequência mais alta, mas seu funcionamento é fundamentalmente o mesmo dos ressonadores mecânicos encontrados na maioria dos telefones celulares.
O ressonador foi ligado fisicamente a um qubit supercondutor, um sistema quântico controlável com grande precisão, utilizado nas pesquisas dos computadores quânticos. O conjunto foi então resfriado até próximo ao zero absoluto.
Utilizando o qubit como um termômetro quântico, os pesquisadores demonstraram que o ressonador mecânico não continha nenhuma vibração extra. Em outras palavras, ele havia sido resfriado até um nível equivalente ao seu estado fundamental de energia.
Na verdade, a medição garante que o sistema esteja em seu nível fundamental por um determinado tempo. Por mais que o sistema esteja "parado", há sempre forças residuais e uma espécie de "meio quantum" que parece sempre surgir e quebrar sua harmonia.
Objeto macro quanticamente entrelaçado
Com o ressonador mecânico o mais próximo possível de estar perfeitamente parado - onde parado significa parado até ao nível das oscilações dos seus átomos - os cientistas adicionaram a ele um único quantum de energia, um fónon, a menor unidade física de vibração mecânica, provocando-lhe o menor grau de excitação possível.
Os cientistas então observaram o conjunto conforme esse quantum de energia circulava entre o qubit e o ressonador mecânico. Ao trocar essa unidade fundamental de energia, o qubit e o ressonador se tornaram quanticamente entrelaçados, o que significa que qualquer alteração no estado quântico de um deles será imediatamente sentido no outro.
Ou seja, o ressonador respondeu precisamente conforme previsto pela teoria da mecânica quântica - quando os cientistas mediam a energia no qubit, o ressonador mecânica "escolhia" o estado vibracional no qual deveria permanecer.
Medições seguidas mostraram que os resultados seguem exatamente as previsões das probabilidades da mecânica quântica.
Vibrando e não vibrando ao mesmo tempo
Em outro teste, os cientistas colocaram o ressonador mecânico em superposição quântica, um estado no qual ele tem um estado de excitação, ou vibração, que é simultaneamente igual a zero e igual a um, as duas coisas ao mesmo tempo.
Este é o equivalente energético de uma partícula estar em dois lugares ao mesmo tempo.
Ou seja, o ressonador vibrava e não vibrava ao mesmo tempo.
Mas não é de fato possível ver o efeito, porque o simples fato de olhar para o ressonador tira-o da superposição, da mesma forma que a medição de um elétron colapsa sua função de onda e o faz decidir-se por uma posição.
O simples olhar para o ressonador faz com que ele escolha entre vibrar ou não vibrar.
Nanomecânica
O experimento é tão marcante quanto sensível. A temperatura na qual ele funciona é de apenas 25 milikelvin e o efeito dura apenas alguns nanossegundos, já que ele é afetado pelas mais sutis influências do mundo ao seu redor.
A diferença com os experimentos anteriores da mecânica quântica é que a minúscula fita metálica mede 60 micrômetros de comprimento, grande o suficiente para ser vista a olho nu.
"Esta é uma validação importante da teoria quântica, assim como um impulso significativo ao campo da nanomecânica," disse Cleland.
Imaginação quântica
Como um gato não sobrevive a essas temperaturas, ainda não dá para pensar em transformar o gato de Schrondiger em um experimento real.
Na verdade, é muito difícil proteger os mais simples sistemas quânticos dos ruídos externos, fazendo-os funcionar por muito tempo - pelo menos no estado atual da tecnologia.
Mas a comprovação inequívoca do funcionamento da mecânica quântica em objetos macroscópicos abre a possibilidade teórica de que objetos em escala humana possam estar superpostos ou entrelaçados.
Seria possível, por exemplo, ter fónons, fótons e elétrons, em quantidades bem definidas, ou quantizados, mesclados e operando conjuntamente no interior de um aparato como um chip, com possibilidades de exploração nem sequer imaginadas.
Leis desconhecidas
Mas muitos físicos alertam que leis físicas da natureza ainda não descobertas podem simplesmente impedir que objetos realmente grandes atinjam estados quânticos como a superposição e o entrelaçamento.
Só há um jeito de saber quem tem razão: repetir o experimento agora realizado com objetos cada vez maiores e ver até quando os resultados se manterão.

Fonte: Site Inovação Tecnológica

Torre de Hanói - Interessante Quebra-cabeça matemático


A Torre de Hanói é um quebra-cabeça que consiste em uma base contendo três pinos, em um dos quais são dispostos alguns discos uns sobre os outros, em ordem crescente de diâmetro, de cima para baixo. O problema consiste em passar todos os discos de um pino para outro qualquer, usando um dos pinos como auxiliar, de maneira que um disco maior nunca fique em cima de outro menor em nenhuma situação. O número de discos pode variar sendo que o mais simples contém apenas três.
A Torre de Hanói tem sido tradicionalmente considerada como um procedimento para avaliação da capacidade de memória de trabalho, e principalmente de planejamento e solução de problemas.

                                                 Um Modelo das Torres de Hanoi

Edouard Lucas, matemático francês, teve inspiração de uma lenda para construir o jogo das Torres de Hanói. Já seu nome foi inspirado na torre símbolo da cidade de Hanói, no Vietnã.
Existem várias lendas a respeito da origem do jogo, a mais conhecida diz respeito a um templo Hindu, situado no centro do universo. Diz-se que Brahma supostamente havia criado uma torre com 64 discos de ouro e mais duas estacas equilibradas sobre uma plataforma. Brahma ordenara-lhes que movessem todos os discos de uma estaca para outra segundo as suas instruções. As regras eram simples: apenas um disco poderia ser movido por vez e nunca um disco maior deveria ficar por cima de um disco menor. Segundo a lenda, quando todos os discos fossem transferidos de uma estaca para a outra, o templo desmoronar-se-ia e o mundo desapareceria.
 
É interessante observar que o número mínimo de "movimentos" para conseguir transferir todos os discos da primeira estaca à terceira é 2n-1, sendo n o número de discos. Logo:
Para solucionar um Hanói de 4 discos, são necessários 15 movimentos
Para solucionar um Hanói de 7 discos, são necessários 127 movimentos
Para solucionar um Hanói de 15 discos, são necessários 32.767 movimentos
Para solucionar um Hanói de 64 discos, como diz a lenda, são necessários 18.446.744.073.709.551.615 movimentos.
Para entender a lógica da Torre de Hanói é necessário analisar a construção de diferentes níveis da torre com o número mínimo de movimentos, tendo o nível anterior já formado, sendo que esses níveis são o número de peças desintegradas da torre original que irão formar outra torre com os menores discos.
Para mover o primeiro disco da torre original, 1 movimento é gasto. Para mover o segundo da torre original, sendo que o primeiro já foi movido e será construída uma torre com os 2 menores discos, são gastos 2 movimentos. Para deslocar o terceiro disco formando nova torre com os três menores discos, tendo a torre com os dois menores já formada, são gastos 4 movimentos.
Assim se sucede com os próximos discos até que o enésimo disco (o último) seja deslocado compondo uma torre com os outros discos tendo uma torre com o penúltimo disco e os demais juntos já formada. A sucessão formada pela soma dos movimentos é uma sucessão (1,2,4,8...2n)
A fórmula 2n − 1 é provinda da soma de uma progressão geométrica.
Sabe-se que em uma progressão geométrica a soma de seus termos equivale a [a * (qn − 1)] / q − 1, onde "a" é o primeiro termo e "q" é a razão.
Já que a razão é 2 e o primeiro termo é 1 temos que [a * (qn − 1)] / q − 1 = [1 * (2n − 1)] / 2 − 1 = 2n − 1
  
Fonte: Wikipédia

Para jogar e se divertir, clique aqui 


Instruções para o jogo: O jogo da Torre de Hanói tem três pólos. No primeiro pólo existe alguns discos com diferentes dimensões ordenados do maior para o menor.
As regras do jogo são muito simples. Você precisa mover um disco de cada vez, mas sabendo que um disco maior não pode ser posto em cima de um menor.
À esquerda você pode escolher o nível de dificuldade que é o número de discos que você quer usar. Escolha de 1 a 8, e, para começar o jogo, aperte o botão START.
O propósito do jogo é mover todos os discos para o último pólo e reconstruir a torre exatamente como ela era antes.
Para mover um disco, pressione o botão esquerdo do mouse sobre ele e arraste-o até o topo da próxima torre, e solte o botão do mouse. Se você fizer um movimento válido, o disco vai cair automaticamente. Do contrário, ele vai voltar para sua possição original.

quarta-feira, 15 de dezembro de 2010

Teoria do Caos - Continuação da série sobre fractais

Gostaria de me desculpar pela demora em continuar nossa série sobre fractais, mas para os que gostaram e querem mais, aqui está:

"O Caos não tem estátua nem figura e não pode ser imaginado; é um espaço que só pode ser conhecido pelas coisas que nele existem e ele contém o universo infinito."
-Frances A. Yates

Na Mitologia grega, o Caos era considerado o estado não organizado, ou o nada, de onde todas as coisas surgiam. De acordo com a Teogonia de Hesiold, o Caos precedeu a origem, não só do mundo, mas também dos deuses. A cosmogonia de Orphic afirma que Chronos (personificação do tempo) deu origem a Ether e a Caos, este formou um enorme ovo de onde nasceu o Paraíso, a Terra e Eros.
Atualmente, com o desenvolvimento da Matemática e das outras ciências, a Teoria do Caos surgiu com o objetivo de compreender e dar resposta às flutuações erráticas e irregulares que se encontram na Natureza, resíduos da formação primordial vinda do grande ovo de Caos.
A ciência do Caos é relativamente recente e é considerada a terceira grande revelação deste século nas ciências físicas.
A investigação do Caos teve início nos anos 60, quando se descobriu que sistemas complexos, que podiam descrever possíveis previsões do tempo, podiam ser traduzidos por equações matemáticas simples. Do mesmo modo, sistemas que eram aparentemente simples e modelos deterministas, podiam levar a problemas muito complexos.  
Através do estudo desta ciência, verificou-se que um sistema passa facilmente de um estado de ordem para um estado caótico, podendo surgir, por vezes de uma maneira espontânea, dentro do caos, a ordem. Também foi verificado que pequenas diferenças nas condições iniciais de um sistema podem conduzir a diferenças bastante significativas no resultado final, sendo deste modo fortemente abalado o paradigma da física determinista.
Porém, compreendendo o comportamento caótico, muitas vezes é possível entender como o sistema se comportará como um todo ao longo do tempo.
Esta ciência tem proporcionado algumas descobertas extraordinárias e levantado questões tão problemáticas que a tornam muito interessante e desafiante.
A geometria fractal está intimamente ligada à Teoria do Caos. São as estruturas quebradas, complexas, estranhas e belas desta geometria que conferem uma certa ordem ao caos, e esta é muitas vezes caracterizada como sendo a linguagem do caos.  
A geometria fractal busca padrões organizados de comportamento dentro de um sistema aparentemente aleatório.

Vejamos o seguinte exemplo:
O João sai de casa às 9 horas para visitar a avó que vive  a 30 Km.
Ao sair de casa, fica preso no elevador, por falta de corrente, o que o faz demorar 5 minutos e perder o ônibus que passa de 10 em 10 minutos (passou às 9 horas e 4 minutos). Chega à estação, acabando de perder o metrô (só o viu ao fundo da linha), o próximo é daí a 2 horas.
Esta relação é um bom exemplo de caos: uma pequena alteração pode provocar uma diferença considerável, como no caso anterior.

Mas também pode acontecer que uma alteração não origine uma diferença significativa como se pode ver na situação seguinte:
Se o João tivesse saído de casa às 8 horas e 59 minutos, o elevador não tinha parado e teria chegado a horas a casa da avó.
Mas a mais pequena alteração pode ter consequências imprevisíveis.
Neste exemplo, saíndo às 9 horas, apenas um minuto mais tarde, o João vai chegar a casa da avó 2 horas e 14 minutos mais tarde.
 
Outra relação existente entre a geometria fractal e a Teoria dos Caos prende-se com o fato de ambas se terem desenvolvido e crescido graças ao desenvolvimento da informática. No entanto, embora a utilização de computadores seja indispensável, não podemos confiar cegamente nos computadores pois uma alteração mínima nas condições iniciais pode ser o suficiente para que o resultado sofra mudanças bastante significativas.
Apesar das inúmeras aplicações e utilidades, os fractais ainda têm um longo caminho pela frente. Faltam muitas ferramentas e vários problemas continuam sem solução. Uma teoria completa e unificada é necessária e a pesquisa prossegue neste sentido.

"O mundo que nos cerca é caótico mas podemos tentar limitá-lo no computador. A geometria fractal é uma imagem muito versátil que nos ajuda a lidar com os fenómenos caóticos e imprevisíveis."                      
-Benoît Mandelbrot

Texto retirado de O Mundo dos Fractais


terça-feira, 14 de dezembro de 2010

A alma de uma máquina antiga, artigo de Alysson Muotri

"Parte da diferença entre as habilidades cognitivas humanas, aquilo que gera um Picasso ou um Einstein, pode muito bem ser uma loteria literalmente"


Após uma década do anúncio do genoma humano, diversos resultados incríveis foram obtidos: do genoma Neandertal até um organismo sintético, só pra citar os mais óbvios. Mas a consequência mais intrigante dessas pesquisas foram resultados da genômica comparativa.

A comparação entre sequências dos diversos genomas permitiu começar a encontrar pistas sobre a essência do humano moderno, as variações que distinguem o Homo sapiens dos outros animais, inclusive de outros humanos. Nessas variações genéticas estariam o segredo que fez com que nossa espécie florescesse.

Mas a genômica pode fazer mais do que isso. Comparando as sequências de pessoas vivas, é possível acompanhar como as pressões evolutivas atuaram durante nosso passado recente. Junto aos dados antropológicos sobre a migração humana fora da África, podemos refinar essas informações para ter uma visão mais precisa da evolução dos diferentes grupos humanos, inclusive de fatores que nos tornam diferentes, como inteligência e comportamento.

Esse tipo de genômica já vem sendo aplicado, ainda que de forma tímida. Deixamos apenas de pesquisar os riscos genéticos de doenças entre grupos humanos e estamos olhando para outros fenótipos, como personalidade, propensão religiosas, habilidade de investimento.

A árvore genealógica dos africanos e seus descendentes, começa no nordeste africano. Muitas evidências apontam para aquela região como o local que de surgimento do Homo sapiens. Para pessoas sem origem africana recente, a jornada começou a partir de um gargalo evolutivo cerca de 60 mil anos atrás, que se abriu em migrações humanas para o resto do mundo.

O gargalo corresponde aos pioneiros que cruzaram o estreito de Bab El Mandeb e começaram a popular o planeta. Até então, existiu pouco cruzamento entre esses grupos pioneiros, permitindo que diferenças locais emergissem.

Essas diferenças acontecem por mutações genéticas ao longo do tempo. Muitas serão aleatórias, mas outras serão produtos da seleção natural. Não é fácil distinguir qual é qual, mas algumas das alterações encontradas são óbvias: estão em genes envolvidos em pigmentação da pele ou tipo de cabelo. Essas alterações são marcadores conhecidos de regiões geográficas distintas, que foram selecionadas por fornecer vantagens de sobrevivência em determinado ambiente.

Da mesma forma, alterações foram encontradas em genes que conferem resistência a determinados patógenos. Malária, tuberculose e pólio deixaram cicatrizes no genoma de algumas populações humanas e nos permitem reviver a história.

Interessante notar que a mesma tecnologia pode ser aplicada para fatores cognitivos como criatividade e inteligência. Quando esse tipo de resultado começar a ser publicado, os velhos argumentos sobre genes e ambiente terão que ser repensados. Além disso, se a interpretação de nossos dados publicados recentemente (Muotri et al, Nature 2010) estiver realmente correta, o problema pode ficar ainda mais complexo.

Nesse trabalho, mostramos que a propensão para doenças mentais com variações cognitivas podem ser geneticamente determinadas de uma forma não hereditária. Estudamos elementos do genoma conhecidos como L1 retrotransposons. Os elementos L1 são pedaços de DNA vulgarmente chamados de "genes saltadores". Esses elementos representam cerca de 20% do genoma humano e a maioria dos pesquisadores os consideram como "DNA lixo" ou mesmo "parasitas genéticos", genes-egoístas.

Os L1s são estruturas antigas do genoma, anciões genéticos. Estão presentes na maioria dos genomas dos organismos vivos. Sobrevivem ao duplicar-se e inserir novas cópias em outros locais do genoma, escapando de mecanismos moleculares de defesa, criados durante a evolução para frear a expansão dos L1 no núcleo celular. Em 2005 mostramos que isso acontece com muito mais frequência durante o desenvolvimento do sistema nervoso.

Nessa "guerra" silenciosa que acontece no genoma de cada neurônio, a cada vitória de uma nova cópia de um retroelemento, surge a chance de alterar a função celular. Isso porque ao inserir-se no genoma, os novos L1 podem causar pequenas perturbações em genes vizinhos, afetando como o neurônio se comporta.

No trabalho recente, mostramos que mutações num gene chamado MeCP2, envolvido com síndromes do espectro autista, bi-polar e esquizofrenia, podem alterar a frequência dos genes saltadores no cérebro. Mas qual seria a consequência disso? Nossa interpretação é que o cérebro de cada pessoa é esculpido durante o desenvolvimento por um processo de seleção natural.

Neurônios são selecionados pela habilidade de fazer conexões e gerar redes neurais funcionais. Se em todas as pessoas esse processo fosse idêntico, não haveria variabilidade cognitiva alguma.

Mas, ao adicionarmos um fator aleatório para a seleção agir, como as novas cópias de L1, deixamos o processo variável. Ao identificarmos um mecanismo molecular que regula esse processo no cérebro de pessoas portadoras do espectro autista, especulamos que isso possa contribuir para as "habilidades" inerentes desses indivíduos, muitas vezes superior à média da população humana.

Parece uma proposta ousada - mas não é. O sistema imunológico também usa um sistema de mutação aleatória no DNA para gerar a variabilidade necessária nas células que reconhecem os milhares de patógenos que nos atacam diariamente. E mais, os dois sistemas (nervoso e imunológico) estão em constante interação com o ambiente, buscando um equilíbrio.

Se nossa hipótese estiver correta, levará a uma ironia um tanto desconfortável. Ninguém duvida que inteligência e criatividade possuem fatores genéticos. Estudos com gêmeos idênticos e não-idênticos já provaram isso antes. Também, ninguém questiona as forças de uma boa educação e um ambiente favorável.

Mas parte da diferença entre as habilidades cognitivas humanas, aquilo que gera um Picasso ou um Einstein, pode muito bem ser uma loteria literalmente. E essa loteria genômica durante o desenvolvimento pode ter sido responsável pela vitória evolutiva do Homo sapiens, gerando indivíduos capazes de liderar grupos humanos nas mais difíceis situações ambientais.

Nota: Alysson Muotri é biólogo molecular, pós-doutor em neurociência e células-tronco e professor da Faculdade de Medicina da Universidade da Califórnia (EUA).

Artigo publicado no G1 no dia 10 de dezembro.
Texto retirado do Jornal da Ciência

segunda-feira, 13 de dezembro de 2010

Brasil oficializa pedido de associação ao Cern

Ministro da Ciência e Tecnologia envia carta ao centro europeu que dá início ao processo de admissão do país

O ministro da Ciência e Tecnologia, Sérgio Rezende, oficializou o pedido de entrada do Brasil como membro associado da Organização Europeia para a Pesquisa Nuclear (Cern) nesta segunda-feira (13/12). Agora, o país seguirá uma série de procedimentos para poder tirar proveito das instalações do centro europeu, um dos mais avançados do mundo em estudos de física.
Segundo o presidente do grupo de trabalho criado pelo Ministério da Ciência e Tecnologia (MCT) para levar adiante o processo, Ronald Shellard, a aprovação do pedido brasileiro deve acontecer no fim do primeiro semestre de 2011.
"Agora precisamos redigir um relatório sobre o estado e o financiamento de nossas universidades e o potencial de aproveitamento da indústria desse acordo, entre outras informações", afirmou Shellard ao "JC e-mail". Atenção especial será concedida à pesquisa de física de altas energias, teórica e experimental.
Em seguida, o Cern enviará uma missão ao Brasil para averiguar os fatos relatados, o que deve acontecer entre fevereiro e março. Finda esta etapa, a organização europeia deverá aprovar a entrada do país como membro associado. Caberá ao Congresso Nacional, então, ratificar o acordo internacional.
O status de membro associado permite ao Brasil pagar menos pela associação do que os países plenos. No caso brasileiro, a taxa será de 10% de um "full member", valor que equivale a US$ 15 milhões anuais.
Em troca, o país poderá enviar cientistas aos laboratórios do Cern para desenvolver pesquisas. Assentos permanentes, no entanto, estão vetados. O acordo atende aos interesses nacionais, diz Shellard.
"Cada cientista poderá ficar lá por até cinco anos. Depois, terá de voltar, o que para nós é interessante, pois ele aplicará no Brasil o conhecimento adquirido no exterior". A associação também permite às empresas brasileiras participar de licitações.
Segundo Shellard, a participação brasileira poderá aumentar em breve. "A abertura para nós, por parte do Cern, significa um reconhecimento da maturidade que a ciência e o desenvolvimento tecnológico do Brasil alcançaram. Com mais interação, acredito que haverá mais pressão para intensificarmos nossa participação. É um caminho natural", diz.

Fonte: Jornal da Ciência

sábado, 11 de dezembro de 2010

A Geometria Analítica e seu verdadeiro Pai


ELENICE DE SOUZA LODRON ZUIN
Departamento de Matemática e Estatística da PUC-MINAS
“... é possível que me engane e que seja talvez um pouco
de cobre e de vidro o que tomo por ouro e diamantes.”

                                                                                         René Descartes

 

René Descartes

      O francês René Descartes (1596-1650) é anunciado como o pai da Geometria Analítica, por ter escrito sua mais famosa obra: o Discours de la méthode por bien conduire sa raison et chercher la verité dans les science (Discurso do método para bem conduzir a razão e procurar a verdade nas ciências). Quase todos os livros didáticos de matemática apontam Descartes como o criador da Geometria Analítica. Mas, até que ponto isto é verdade?  Neste artigo, iremos voltar alguns séculos na História para podermos refletir e julgar a quem caberia o título de Pai da Geometria Analítica.
Tudo começa na Antigüidade. Os antigos egípcios, em agrimensura, e os antigos gregos, na elaboração de seus mapas, usavam métodos que, através de coordenadas convenientes, podiam fixar a posição de um ponto. Ao longo da história, vários trabalhos sugerem usos de coordenadas e aplicações de álgebra, ainda que rudimentar, à geometria.
Já, no século XIV vamos encontrar Nicola Oresme (1323-1382), natural da diocese de Bayeux, na França que se tornou bispo de Lisieux, na Normandia, em 1377. Ele foi estudante e professor da Universidade de Paris. Oresme escreveu várias obras. Um tratado sobre a Origem, Natureza e Mudanças das Moedas, que o torna pioneiro como economista político daquela época. Escreveu, também, sobre Astrologia, mas na área da matemática, entre outros, é que ele nos deixou um trabalho original. “... ocorreu-lhe em algum momento antes de 1361 um pensamento brilhante –  porque não traçar uma figura ou gráfico da maneira pela qual variam as coisas? Vemos aqui, é claro, uma sugestão antiga daquilo que agora chamamos representação gráfica de funções. Tudo o que é mensurável, escreveu Oresme, é imaginável na forma de quantidade contínua; por isso ele traçou um gráfico velocidade-tempo para um corpo que se move com aceleração constante. Ao longo de uma reta horizontal ele marcou pontos representando instantes de tempo (ou longitudes), e para cada instante ele traçou perpendicularmente à reta de longitudes um segmento de reta (latitude) cujo comprimento representava a velocidade. As extremidades desses segmentos, ele percebeu, jazem ao longo de uma reta; e se o movimento uniformemente acelerado parte do repouso, a totalidade dos segmentos velocidade (que chamamos ordenadas) preencherá um triângulo retângulo. Como a área desse triângulo representa a distância percorrida, Oresme forneceu, assim, uma verificação geométrica da regra de Merton1, pois a velocidade no ponto médio do intervalo de tempo é a metade da velocidade final. Além disso, o diagrama leva obviamente à lei de movimento usualmente atribuída a Galileu no século dezessete. (...)
A representação gráfica de funções, conhecida então como a latitude de formas continuou a ser um tópico popular deste o tempo de Oresme até o de Galileu. O Tractatus de latitudinibus formarum, escrito talvez por um estudante de Oresme, senão pelo próprio Oresme, apareceu em numerosas formas manuscritas e foi impresso pelo menos quatro vezes entre 1482 e 1515; mas constituía apenas um resumo de uma obra maior de Oresme intitulada Tractatus de Figuratione potentiarum et mensurarum. Aqui Oresme chegou a sugerir uma extensão a três dimensões de sua ‘latitude de formas’ em que uma função de duas variáveis independentes era representada como um volume formado de todas as ordenadas erigidas segundo uma reta dada, em pontos numa parte do plano de referência. Encontramos até uma insinuação de uma geometria de quatro dimensões...”  2
Voltando a Descartes, Discours de la méthode contém três apêndices: La dioptrique, Les météores e La géométrie.  Descartes diz no seu livro: “Todo problema de geometria pode facilmente ser reduzido a termos tais que o conhecimento dos comprimentos de certos segmentos basta para a construção”, deste modo, podemos perceber que seu objetivo era, em geral, uma construção geométrica, diferentemente da redução da geometria à álgebra como se pensa. La Géométrie tem duas seções: “Como os cálculos de aritmética se relacionam com operações e geometria” e “Como a multiplicação, a divisão e a extração de raízes quadradas são efetuadas geometricamente”, mostrando que as cinco operações aritméticas correspondem a construções com régua e compasso. O que é mais representativo em La géométrie é uma teoria de equações algébricas onde Descartes propõe um método para se determinar o número de raízes falsas (negativas) e verdadeiras (positivas) de uma equação. 
 

           Discours de la Methode – Edição de 1637

 Segundo Boyer e Struik, La Géométrie não se assemelha em nada com a geometria analítica, são usadas ordenadas oblíquas, não se encontram eixos perpendiculares, ou coordenadas retangulares (também conhecidas por coordenadas cartesianas, em homenagem a Descartes!). Não se fala de distâncias entre dois pontos, inclinação de uma reta ou mesmo ângulo entre duas retas, não se usa abscissas negativas. Descartes, apesar de colocar algumas equações do segundo grau, que são interpretadas como representativas de seções cônicas, não faz deduções de equações das seções cônicas e nem mesmo de uma simples reta ou circunferência.
Um fato interessante é que a edição original do livro foi publicada sem o nome de Descartes! Apesar disto, segundo os historiadores, todos sabiam quem era o autor. Os três apêndices do Discours de la méthode, para a maioria das pessoas, pareciam textos soltos, e isto ficou tão evidente que foram omitidos em reedições posteriores, uma vez que não se entendia como os mesmos tinham alguma relação com o seu método geral, exposto no livro.
Struik diz, em relação à geometria analítica: “este ramo da matemática se desenvolveu sob a influência do livro de Descartes, mas dificilmente La Géométrie pode ser considerada um primeiro texto sobre o assunto”, lembrando que “Apolônio já tinha uma caracterização das seções cônicas por meio daquilo que agora – com Leibniz – podemos chamar coordenadas, embora não lhes fossem atribuídos valores numéricos. Porém, a latitude e a longitude na Geographia, de Ptolomeu, eram coordenadas numéricas. Papus, na sua Colecção, tinha um Tesouro de Análise (Analuomenos), no qual temos apenas de modernizar a notação para obter uma aplicação da álgebra à geometria. Mesmo a idéia de representação gráfica tinha ocorrido antes de Descartes, como, por exemplo, nos trabalhos de Oresme”3. Para situar a época na qual estes trabalhos foram desenvolvidos, Apolônio escreveu As cônicas por volta do ano de 225 a.C., Ptolomeu viveu no século II e  Papus no século IV.
Como o Tractatus de latitudinibus formarum, ou apenas De latitudinibus formarum, onde Oresme expõe a sua representação gráfica, foi impresso várias vezes, é de se imaginar que este trabalho tenha influenciado tanto Descartes4 como outros matemáticos do Renascimento.  

Pierre de Fermat

 Contemporâneo de Descartes, o advogado francês Pierre de Fermat (1601-1665) foi um grande nome na História da Matemática. Em geral, os nossos estudantes do Ensino Médio, e mesmo superior, nunca ouviram falar em Fermat. Este homem notável, que tantas contribuições deu ao mundo, se dedicava, nas suas horas livres, à ciência e à matemática; não se preocupou em publicar nenhum de seus estudos e descobertas. Seus trabalhos foram divulgados através de correspondência a amigos e a outros intelectuais. Em 1629, ele iniciou um trabalho de recompor as obras perdidas da Antigüidade, fazendo pesquisas e se baseando em tratados clássicos. Uma das obras reconstruídas por ele foi Lugares Planos, de Apolônio. Acredita-se que ao reconstruir a obra de Apolônio ele se inspirou para chegar ao princípio fundamental da geometria analítica. Ele escreveu Ad locus planos et solidos isagoge (Introdução aos lugares planos e sólidos), que só foi publicado depois da sua morte. Neste pequeno ensaio, ele trata das equações  de retas e cônicas, referidas a um sistema de eixos, em geral, perpendiculares. Usando a álgebra resolveu problemas geométricos. No seu livro encontramos as equações gerais de retas, circunferências e equações mais simples de parábolas, elipses e hipérboles, sendo que também apresenta reduções de equações do primeiro e segundo graus através de translações e rotações de eixos.
Um outro fato importante é que o monge franciscano Marin Mersenne5, que vivia em Paris, interessado em Filosofia, Ciência e Matemática, formou um grupo de intelectuais que se reuniam freqüentemente. Estavam entre eles, Gilles Persone de Roberval6, Blaise Pascal, Girard Desargues, Pierre Gassendi7, e mesmo o inglês Thomas Hobbes, que estava sempre na França. O monge mantinha correspondência com diversas pessoas que desenvolviam trabalhos expressivos na época: na Itália com Galileu Galilei, Boaventura Cavalieri e Evangelista Torricelli; em Toulousse com Fermat; com Descartes, que na época morava na Holanda. Neste fantástico grupo, as grandes idéias e descobertas sempre transitavam e eram discutidas; Mersenne se encarregava de se fazer conhecer o conteúdo de suas correspondências ao grupo e transmitir tudo que circulava de novidade aos seus correspondentes. Descartes, muito antes de publicar o Discours de la méthode, em 1637, já tinha lido o manunscrito original do trabalho de Fermat, escrito em 1629. Como as informações circulavam através de Mersenne, este provavelmente, lhe encaminhou as idéias de Fermat, mesmo antes de Descartes ter oportunidade de ler a Introdução a lugares planos e sólidos (assunto para se refletir!).

Marin Mersenne

O trabalho de Fermat só foi publicado em 1679, após a sua morte, e o livro de Descartes em 1637. Este fato pode ter gerado a idéia de que Descartes, realmente, foi o criador da Geometria Analítica. Outro ponto, a ser destacado, é que Fermat utilizou a álgebra de Viète (1540-1603), o que fazia parecer sua obra não tão moderna como a de Descartes, uma vez que este introduziu diversas notações que ainda são usuais.8
Agora, você tem informações suficientes para ajudar a Geometria Analítica a encontrar o seu  verdadeiro Pai (!).
A partir desta pequena viagem pela História da Matemática, nos convencemos da importância  de se pesquisar fatos que, mesmo durante muitos séculos, são colocados como verdadeiros. E dentro da Educação e, também, no nosso dia-a-dia, cada um de nós deve começar refletir a respeito das palavras do próprio Descartes: “O bom senso é a coisa mais bem repartida deste mundo...” 9.  “Todavia é possível que me engane e que seja talvez um pouco de cobre e vidro o que tomo por ouro e diamantes

 


" Artigo publicado na Revista MatNews 2, 1998. p.48-51.

 


1 No século XIV o estudo das mudanças, em geral, e do movimento, em particular, foram estudados nas universidades em Oxford e Paris. Em Merton College, Oxford, foi deduzida uma formulação para o movimento de velocidade com variação uniforme, que ficou conhecido como regra de Merton. A regra expressa em termos de tempo e distância, diz essencialmente que se um corpo se move com movimento uniformemente acelerado a distância coberta será igual à que seria percorrido por outro corpo que se deslocasse com movimento uniforme durante o mesmo intervalo de tempo com velocidade igual à do primeiro  no ponto médio do intervalo de tempo.  (Boyer, 1996, p. 178).
2 Boyer, 1994, p. 180-182.
3 IStruik, 1989, p.161-162.
4 Boyer acredita que mesmo que Descartes tivesse conhecimento da obra de Oresme, ele não conseguiu fazer qualquer relação entre a latitude de formas e a sua classificação das construções geométricas. (Boyer, 1996, p.237).
5 Mersenne (1588-1648) é autor de trabalhos na área de Física e Matemática.
6 Roberval, entre outros trabalhos, fez um estudo a ciclóide provando que a área sob um arco da curva é igual a três vezes a área do círculo gerador; em 1638, descobriu como traçar a tangente à curva em qualquer ponto.
7 Gassendi filósofo francês, foi um dos proponentes da teoria atomista. Defendia a idéia de que o Universo é formado por  minúsculas  partículas,  cujos  movimentos  e interações  podem ser  estudados e previstos matematicamente.
8 Usando a notação algébrica de Viète, Fermat escrevia em latim “D in A aequetur B in E”, o que hoje escreveríamos como Dx = By, para representar o caso mais simples de uma equação linear.
Descartes introduziu  uma  nova  notação para  as equações algébricas, usa as primeiras letras do  alfabeto,  a, b, c para designar as constantes e  x, y, z  para denotar as variáveis, notação preservada  até hoje.
9 In Discurso do Método, p.39.
REFERÊNCIAS BIBLIOGRÁFICAS:
BOYER, Carl B. História da Matemática. 2. ed. Trad.Elza Furtado Gomide. São Paulo: Blücher, 1996.
DESCARTES, René. Discurso do método. Trad. João Cruz Costa. Rio de Janeiro: Ediouro, [s.d].                                              
EVES, Howard. História da Geometria. Trad. Hygino H. Domingues. São Paulo: Atual, 1992.
STRUIK, Dirk. História concisa das matemáticas. Lisboa: Gradiva, 1989.