Subscribe Twitter Facebook

quarta-feira, 31 de março de 2010

Buracos Negros

Definição Geral

Quando um corpo não possui mais pressão suficiente para produzir uma força para fora que contrabalance o peso de suas camadas externas (Fig. 1), o corpo colapsa matematicamente a um ponto. Este ponto é chamado singularidade, onde a densidade tende ao infinito. (Uma "colherada" de tal matéria conteria a massa de centenas de sóis!). O campo gravitacional é tão forte que nem mesmo a luz é capaz de escapar e por isso tal corpo é chamado de Buraco Negro.

Fig. 1 Forças internas se equilibrando 
(em uma estrela)

Noções de gravitação aplicadas aos buracos negros

Para que um corpo de massa $$m_1$$ escape ao campo gravitacional de massa $$m_2$$ a uma distância R do centro deste corpo, sua energia cinética deve ser igual a energia potencial, portanto:

$$\frac{m_1.V_e^2}{2} = \frac{m_1.m_2.G}{R}$$
$$V_e = \sqrt{\frac{2G.m_2}{R}$$ Eq.1
onde $$V_e$$ é a velocidade de escape e G é a constante gravitacional. Daí podemos tirar alguns resultados para corpos conhecidos:

  • Para a superfície da Terra $$V_e = 11,2 \text{km/s}$$
  • Para uma estrela de nêutrons $$0,5c$$ onde c = 300.000 km/s (a velocidade da luz).
    Distorção do espaço

    Nas aproximações de um campo gravitacional forte, o espaço-tempo sofre uma distorção que provoca um aumento das distâncias a medida que nos aproximamos da massa central. Para campos gravitacionais fracos, essa distorção é despresível. Portanto seu estudo e aplicação restringe-se a objetos com campo gravitacional muito forte, como é o caso das estrelas compactas (anãs brancas, estrela de nêutrons), buracos negros ou galáxias massivas. A distorção acontece ao longo da direção radial, de forma que podemos determinar o comprimento de uma circunferência ao redor do buraco negro e calcular a área da esfera a qual ele pertence, mas não podemos determinar com o mesmo tipo de geometria (Euclidiana), o raio da circunferência.
    Por exemplo: você está a bordo de um foguete orbitando um buraco negro com $$R_{sch}=3\text{km}$$ e dessa forma você mede a circunferência da órbita e então calcula (usando geometria Euclidiana) a distância (o raio da circunferência) até o buraco negro como sendo 30 km (distância suficiente para negligenciar a distorção do espaço). Então você anda 21,92 km em direção ao buraco negro e mede o raio da órbita. Você determina, dessa forma, que sua distância ao buraco negro é de 10 km e não 8,08 km como a geometria Euclidiana prevê. Agora vá em direção ao buraco negro 28,52 km a partir da posição original. Pode parecer que você ultrapassará o horizonte de eventos (3 km), mas isso não acontece. Então você determina o raio novamente e verifica que você ainda está a 5 km do buraco negro e não 1,68 km como a geometria Euclidiana prevê. Conclui-se claramente que o forte campo gravitacional distorceu o espaço.

    A figura abaixo ilustra a distorção do espaço.

    Fig. 2 - Uma fonte emissora S que esteja localizada na direção de um corpo supermassivo porém mais distante do que ele, terá sua radiação desviada de um ângulo $$theta$$ e você parecerá estar posicionado(a) em S'.


    Tipos de buracos negros

    Os buracos negros são considerados entidades físicas relativamente simples pelo fato de podermos descrevê-los e classificá-los conhecendo somente três características suas: massa, momento angular e carga elétrica. De acordo com a massa, podemos classificar os buracos negros em dois tipos principais:
    • Buracos negros estelares: originados a partir da evolução de estrelas massivas e portanto com massa da ordem das massas estelares.
    • Buracos negros supermassivos: encontrados nos centros das galáxias, com massas de milhões a um bilhão de vezes a massa solar, provavelmente formados quando o universo era bem mais jovem a partir do colapso de gigantescas nuvens de gás ou de aglomerados com milhões de estrelas.
    Como se formam os buracos negros estelares
    As estrelas nascem evoluem e morrem. A fase final da evolução estelar vai depender da massa inicial das estrelas e se elas evoluem isoladas ou em sistema binário fechado (em que as estrelas estão bem próximas entre si). Três finais possíveis são os seguintes:
    • Se a massa inicial é $$< 3.M\odot$$*, durante e depois da fase de gigante vermelha a estrela perde massa e forma uma Anã Branca, com $$M < 1,4M\odot$$. Nesse caso ocorre a degenerescência eletrônica (os átomos perdem seus elétrons);
    • Se a massa inicial é $$> 3.M\odot$$, a estrela, após a fase de gigante vermelha, explode como supernova, podendo ou não restar um "caroço" no centro. Se a massa deste "caroço" é menor que $$M < 2.M\odot$$ ele se transforma em uma estrela de neutrons, onde teremos degenerescência nuclear (elétrons e prótons se fundem em nêutrons);
    • Se a massa do caroço após a explosão de supernova $$M > 2.M\odot$$, este colapsa a um buraco negro.
    Obs.: Podem ser criados buracos negros ou estrelas de nêutrons com massas menores do que as acima nas explosões de supernovas. A explosão fornece energia suficiente para o "caroço" vencer a barreira de potencial que impediria o colapso. É como um grande impulso para dentro que fornece uma força suficiente para iniciar o processo de colapso até um Buraco Negro ou uma Estrela de Nêutrons.
    Se a estrela evolui num sistema binário fechado, há transferência de matéria entre as estrelas de forma que muitas vezes uma delas acumula uma grande massa que provoca sua explosão como supernova. O resultado mais provável é a formação de uma Estrela de Nêutrons a partir do caroço que sobra da explosão, mas existem sistemas duplos, como o Cygnus X-1 em que a componente compacta parece ser um buraco negro. 
    * $$M\odot \longrightarrow \text{significa massa do Sol}$$ 

    Fonte: Instituto de Física - UFRGS
    Thaisa Storchi Bergmann
    Fausto Kuhn Berenguer Barbosa
    Rodrigo S. Nemmen

    domingo, 28 de março de 2010

    Palestra do Professor Marcelo Viana (IMPA - Instituto de Matemática Pura e Aplicada)

    Palestra "Conjectura de Poincaré - Geometria para Entender o Universo" realizada no Instituto de Física da USP. Palestrante: Marcelo Viana (IMPA).











    A guerra ideológica da internet

    A discussão entre Google e China pode redefinir a tradicional liberdade on-line

    por Michael Moyer

    China exige que as empresas de internet ocultem "conteúdos questionáveis"
    No ano passado, uma série de sofisticados ataques à internet provenientes da China afetou profundamente o sistema computacional de cerca de duas dúzias de empresas americanas, entre elas a Northrop Grumman, a Dow Chemical e a Yahoo. Uma delas, entretanto, contra-atacou. Após descobrir que os ataques objetivavam não apenas seu núcleo de propriedade intelectual, mas também contas de e-mail de ativistas pró-direitos humanos chineses, o Google anunciou que pararia de censurar os resultados de buscas na Google.cn, sua máquina de busca chinesa. Essa decisão levou à ameaça de fechamento das operações do Google na China pelas autoridades chinesas. O site acabou optando por sair do país.

    As acusações e retaliações parecem reminiscências dos episódios da guerra fria, e, de fato, esse confronto pode ser o primeiro grande enfrentamento de dois superpoderes emergentes do século 21 – Google e China. Mais do que uma batalha sobre território ou cota de mercado, trata-se de um conflito ideológico que contrapõe uma internet livre e aberta – que dá poderes aos indivíduos – em detrimento de uma internet excessivamente controlada pela estrutura de poder existente. “Estamos tratando aqui da defesa da essência da internet”, observa Jeff Jarvis, diretor do programa de jornalismo interativo da City University of New York e autor de “O que o Google faria?”, (Editora Manole).

    Mais do que qualquer organização, o Google, segundo Jarvis, tem tanto os meios quanto o incentivo para assegurar que a internet permaneça aberta. É também uma das poucas organizações com uma presença on-line suficientemente ampla para definir regras de operação padronizadas para a internet, explica Rebecca MacKinnon, pesquisadora do Centro de Política para Tecnologias da Informação da Princeton University. Segundo ela, a Google é “quem dá o primeiro passo em vários setores diferentes”. “Ela pode determinar as normas para a liberdade on-line”.

    Para aqueles que são contra a censura, o Google é também uma das poucas organizações com poder computacional bruto suficiente para ajudar na luta contra regimes autoritários. “Minha esperança (e expectativa) é de que os engenheiros do Google, que eram um tanto indiferentes quanto a implementar mandatos de censura na Google.cn, possam ser completamente motivados a apresentar soluções para que o Google possa ser visualizado apesar de interrupções na rede entre o site e o usuário”, declara Jonathan Zittrain, cofundador do Centro Berkman para Internet e Sociedade, da Harvard University.

    O Google poderia lutar contra os esforços de censura da China ajudando aqueles que lá estão a abrir uma brecha na chamada Grande Firewall (em alusão à Grande Muralha). Assim como edifícios no mundo real, cada local na internet tem um endereço associado a ele – chamado de Internet Protocol, ou IP. Além da filtragem de certas palavras chave, os administradores da Grande Firewall mantêm uma imensa lista de endereços IP bloqueados. Ferramentas de evasão redirecionam o usuário para um endereço não bloqueado, então canalizam toda a informação externa através desse endereço de IP “proxy”. Ainda assim, esse atalho pode se perder a qualquer momento. “Um desses endereços de IP pode durar para sempre, ou por alguns meses, ou por alguns minutos” antes que as autoridades o encontrem e o bloqueiem, observa Hal Roberts, especialista em ferramentas de evasão do Centro Berkman.

    Qualquer esforço de evasão exigirá, portanto, um número enorme de endereços para circulação, juntamente com uma imensa quantidade de largura de banda para suportar todo esse tunelamento. “Se conseguíssemos por um passe de mágica convencer todo o povo chinês a usar esses serviços”, diz Roberts, “então alguém teria que pagar por toda a banda de saída da China”. Isso poderia sobrecarregar, mas não muito, os recursos do Google.

    No entanto, existem boas razões para o Google não iniciar esse tipo de guerra de proxy. Promover uma internet livre e aberta é uma coisa, desrespeitar expressamente as leis de uma nação soberana é outra. Além disso, as mesmas ferramentas de evasão também servem como ferramentas anonimizadoras – qualquer um pode utilizar servidores proxy para ocultar sua verdadeira identidade. “O que os torna úteis para todo tipo de atividades nocivas”, acrescenta Roberts. “Poderiam ser utilizados para invadir os servidores do Google ou para atacar seus serviços utilizando a fraude do clique ou spam. Portanto, existe uma grande dúvida se do ponto de vista do Google seria interessante esse tipo de ação”.

    Não importa o curso que o confronto tome nos próximos meses ou anos, pois já chamou a atenção para a batalha pelo controle de quão irrestrita a internet deve ser. No momento os usuários dependem de empresas como o Google para defender a internet de forças – governamentais ou não – que possam exercer um controle hierarquizado mais restrito sobre ela. Isso, no entanto, pode não ser suficiente. Segundo MacKinnon, “o Google – juntamente com uma série de outras empresas que trabalham com a internet e empresas de comunicações – criaram esse suporte do qual dependemos”. Entretanto, não existe um conjunto de regras, uma Declaração de Direitos da Internet, que especifique os direitos dos cidadãos on-line. “Essas companhias dizem ‘somos gente boa, confiem em nós’”, observa MacKinnon. “Assim como em uma ditadura benevolente, que funciona realmente bem quando o líder do momento é um bom sujeito. Mas quando ele morre e seu filho perverso assume, todos são reprimidos”.
     
    Todos os direitos reservados a Scientific American Brasil.

    sábado, 27 de março de 2010

    Princípio da Incerteza

    A "experiência de Young'' para elétrons, em particular a formação de uma figura de interferência mesmo quando o feixe de elétrons é tão rarefeito que não há dúvida de que os elétrons chegam um a um na tela, mostra que a física dos elétrons é incompatível com o conceito de trajetória.


    Não existe, na mecânica quântica, o conceito de trajetória

     
    Isto é o conteúdo do princípio da incerteza, um dos fundamentos da mecânica quântica, descoberto por Werner Heisenberg em 1927.
    A maneira de se obter informações sobre um sistema quântico (que chamaremos, para simplificar, de elétron) é realizar interações entre ele e objetos clássicos, denominados aparelhos. Por hipótese esses aparelhos podem ser descritos pela mecânica clássica com a precisão que quisermos. Quando um elétron interage com um aparelho, o estado deste último é modificado. A natureza e magnitude dessa modificação dependem do estado do elétron, e servem, por isso, para caracterizá-lo quantitativamente. A interação entre o elétron e o aparelho é denominada medida. Um aparelho não precisa ser macroscópico. O movimento de um elétron numa câmara de Wilson é observado por meio da trajetória nebulosa que ele deixa; a espessura dessa trajetória é grande, comparada com as dimensões atômicas. Quando a trajetória de um elétron é determinada com essa baixa precisão, ele é um objeto inteiramente clássico.
    A mecânica quântica, ao menos em seu estágio atual, ocupa um lugar pouco usual entre as teorias físicas: ela contém a mecânica clássica como um caso limite, e, ao mesmo tempo, necessita desse caso limite para estabelecer a sua linguagem.
    O problema típico da mecânica quântica consiste em predizer o resultado de uma medida a partir dos resultados de um certo número de medidas anteriores. Além disso, veremos mais tarde que, em comparação com a mecânica clássica, a mecânica quântica restringe os valores das quantidades físicas medidas (por exemplo, a energia ). Os métodos da mecânica quântica permitem a determinação desses valores admissíveis.
    O processo de medida na mecânica quântica tem uma propriedade muito importante: a medida sempre afeta o elétron medido, e é impossível, por questões de princípio, tornar o efeito da medida sobre o elétron arbitrariamente pequeno (como pode ser suposto na física clássica). Quanto mais exata a medida, mais intenso é o efeito sobre o elétron, e é somente em medidas de pouca precisão que o efeito da medida sobre o elétron pode ser considerado pequeno.
    É um dos postulados fundamentais da mecânica quântica que as coordenadas, ou seja, a posição de um elétron pode sempre ser determinada com precisão arbitrária 2. Suponhamos que, a intervalos definidos $$\Delta t$$, sejam feitas medidas sucessivas das coordenadas de um elétron. Os resultados não estarão, em geral, sobre uma curva lisa. Ao contrário, quanto menor o valor de $$\Delta t$$, mais descontínuos e desordenados serão os resultados, de acordo com o fato de que não existe uma trajetória para o elétron. Uma trajetória razoavelmente lisa só é obtida se as coordenadas do elétron forem medidas com pouca precisão, como no caso de uma câmara de Wilson. Para informações sobre o que é uma câmara de Wilson, veja



    http://rd11.web.cern.ch/RD11/rkb/PH14pp/node29.html#28


    Se, mantendo-se imutada a precisão das medidas de posição, diminuirmos os intervalos $$\Delta t$$ entre as medidas, então medidas adjacentes darão valores vizinhos às coordenadas. Contudo, os resultados de uma série de medidas sucessivas, embora estejam em uma região reduzida do espaço, estarão distribuídas, nessa região, de uma forma totalmente irregular, e nunca em cima de uma curva lisa. Em particular, quando
    $$\Delta t$$, tende a zero, os resultados das medidas adjacentes de nenhuma maneira tende a a estar sobre uma reta. Ora, a velocidade tem a direção da reta que, na física clássica, é obtida nesse limite. Esta circunstância mostra que, na mecânica quântica, não existe a velocidade da partícula no sentido clássico do termo, isto é, o limite de $$\frac{\Delta \overlongrightarrow{r}}{\Delta t}$$ quando $$\color{white}\Delta t \to 0$$.

    Enquanto, na mecânica clássica, a partícula tem posição e velocidade bem definidas em cada instante, na mecânica quântica a situação é bem diferente. Se, como resultado de uma medida, determinam-se as coordenadas de um elétron, então sua velocidade é totalmente indefinida. Se, ao contrário, determina-se a velocidade de um elétron, então ele não pode ter uma posição definida no espaço. Assim, na mecânica quântica, a posições e a velocidade de um elétron são quantidades que não podem ter, simultaneamente, valores definidos.


    Fonte: Instituto de Física  - USP

    quinta-feira, 25 de março de 2010

    Nature by Numbers

    Um pequeno vídeo inspirado em números, geometria e natureza. Muito bonito o vídeo. Vale a pena assistir.




    Por Cristóbal Vila, 2010.
    Todas as imagens e filmes © Cristóbal Vila, 2010 - www.etereaestudios.com

    quarta-feira, 24 de março de 2010

    História do Cálculo

    Um resumo da História do Cálculo Diferencial e Integral

    As contribuições dos matemáticos para o nascimento do Cálculo são inúmeras. Muitos deles, mesmo que de forma imprecisa ou não rigorosa, já utilizavam conceitos do Cálculo para resolver vários problemas - por exemplo, Cavalieri, Barrow, Fermat e Kepler. Nesse tempo ainda não havia uma sistematização, no sentido de uma construção logicamente estruturada.
    A união das partes conhecidas e utilizadas até então, aliada ao desenvolvimento e aperfeiçoamento das técnicas, aconteceu com Newton e Leibniz que deram origem aos fundamentos mais importantes do Cálculo: as Derivadas e as Integrais.
    O Cálculo pode ser dividido em duas partes: uma relacionada às derivadas ou Cálculo Diferencial e outra parte relacionada às integrais, ou Cálculo Integral.
    As origens de alguns dos principais conceitos matemáticos aqueles que lidam com números, grandezas e formas remontam às mais antigas civilizações.
    As tentativas feitas por egípcios, babilônios e gregos de resolver problemas práticos  (Como reduzir as taxas cobradas aos agricultores do vale do Nilo tendo em vista a área alagada e tomada pelo rio a cada ano? Como calcular o volume de um silo de forma cônica? Como dobrar o volume do pedestal da estátua em homenagem ao deus Apolo?) levou-os à resolução de algumas equações, ao cálculo de áreas e volumes de figuras simples como retângulos, trapézios, cones, cilindros e ao desenvolvimento de um sistema de numeração.
    O Cálculo” é uma expressão simplificada, adotada pelos matemáticos quando estes se referem à ferramenta matemática usada para analisar, qualitativamente ou quantitativamente, variações que ocorrem em fenômenos que abrigam uma ou mais componentes de natureza essencialmente física. Quando do seu surgimento, no século XVII, o cálculo tinha por objetivo resolver quatro classes principais de problemas científicos.
    1- Determinação da reta tangente a uma curva, em um dado ponto desta.
    2-  Determinação do comprimento de uma curva, da área de uma região e do volume de um sólido.
    3-  Determinação dos valores máximo e mínimo de uma quantidade por exemplo, as distâncias máxima e mínima de um corpo celeste a outro, ou qual ângulo de lançamento proporciona alcance máximo a um projétil.
    4- Conhecendo uma fórmula que descreva a distância percorrida por um corpo, em um intervalo qualquer de tempo, determinar a velocidade e a aceleração.
    Embora egípcios e babilônios tivessem conseguido resolver muitos problemas matemáticos envolvendo inclusive equações quadráticas e sistemas de equações e conhecessem muitos resultados de geometria inclusive o famoso Teorema de Pitágoras, tanto egípcios quanto babilônios resolviam os problemas propostos.
    Os resultados obtidos por egípcios e babilônios foram assimilados pelos gregos que tiveram o mérito de contribuir para o estabelecimento da matemática da forma como a entendemos hoje.
    Foi na Grécia que surgiu o primeiro livro de Matemática – “Os Elementos de Euclides” - que se constituiu na primeira tentativa de sistematização dos conhecimentos adquiridos até então e na construção de uma teoria matemática baseada em poucos postulados.
    À matemática empírica de babilônios e egípcios se contrapõe então, à matemática dedutiva da escola grega.
    Eram esses os problemas e era esse o estágio de desenvolvimento da matemática desde a Grécia até os séculos XVI e começo do século XVII.
    As grandes navegações do século XVI, o surgimento da indústria, os interesses do grande comércio que surgia na época, exigiam conhecimentos novos, principalmente os ligados aos movimentos dos corpos e particularmente ao movimento planetário.
    Destes problemas ocuparam-se grandes cientistas do século XVII, porém o clímax destes esforços—a invenção (ou descoberta?) do Cálculo—coube a Isaac Newton e Gottfried Wilhelm Leibniz.
    Após o estabelecimento dos fundamentos do Cálculo, torna-se possível à análise de problemas físicos de real importância, com precisão e rigor jamais experimentados. São estabelecidos os fundamentos da Mecânica dos Sólidos e dos Fluidos e tem início o estudo das Equações Diferenciais e Integrais.

    Provada uma conjectura matemática com mais de cem anos

    Grisha Perelman, o matemático antivedeta
    Classificação das superfícies tridimensionais foi consagrada com a atribuição da Medalha Fields. (1)
    O matemático russo Grigory Perelman resolveu a conjectura de Poincaré, um problema colocado pelo célebre matemático francês em 1904 e que, desde então, permanecia por resolver. Pela sua descoberta da solução, Perelman foi agraciado com a Medalha Fields, considerada o Prémio Nobel da Matemática, no Congresso Internacional de Matemática que decorreu no Palácio Municipal de Congressos de Madrid, de 22 a 30 de Agosto de 2006. Além de Perelman, foram também vencedores das medalhas Fields os matemáticos Andrei Okounkov (U. Princeton), Terence Tao (U.C. Los Angeles) e Wendelin Werner (U. Paris-Sud e École Norm. Sup.). A atribuição do prémio decorreu na cerimônia de abertura do Congresso, presidida pelo rei Juan Carlos. Apenas Grigory Perelman, que não compareceu no evento, recusou a Medalha Fields (facto único na história deste prémio).
    A conjectura de Poincaré é fundamental na topologia, também chamada "geometria sem pormenores", o ramo da Matemática que lida com as formas. Assim, em topologia dois objetos são considerados idênticos se puderem ser transformados um no outro sem dobrar ou rasgar, como se fossem feitos com uma massa elástica. Desta forma uma superfície esférica é, para um topólogo, equivalente à superfície de um copo, mas diferente de uma xícara com uma pega. Da mesma forma donut é equivalente a uma xícara com uma alça, mas diferente de uma xícara com duas alças. E assim sucessivamente, de forma que qualquer superfície finita com duas dimensões é equivalente a uma superfície esférica com um número finito (que pode ser zero, um, dois...) de alças (ou "buracos"). Este resultado já era conhecido desde o século XIX.
    Torus
    A classificação de superfícies de dimensão superior (que não podem ser visualizadas em três dimensões) revelou-se bastante mais complicada. Poincaré conjecturou que todas as superfícies finitas de dimensão maior que dois sem nenhum tipo de "buracos" são topologicamente equivalentes a esferas da mesma dimensão, mas não foi capaz de provar. A conjectura de Poincaré já tinha sido provada para esferas de dimensões superiores a 4 por Stephen Smale (Medalha Fields em 1966) e para quatro dimensões por Michael Freedman (Medalha Fields em 1986). Restava somente o caso tridimensional, para o qual o matemático William Thurston, no final dos anos 70, propôs uma generalização. Tal como todas as superfícies fechadas bidimensionais podem ser construídas combinando somente duas formas, a esfera e o donut (a "alça"), também algo semelhante se passaria com as superfícies tridimensionais, que poderiam ser todas construídas a partir não de duas, mas de oito formas fundamentais. Só por ter proposto esta conjectura de geometrização, que automaticamente inclui a conjectura de Poincaré em três dimensões, Thurston, neste momento na Universidade de Cornell, foi igualmente agraciado com a Medalha Fields em 1986.
    Richard Hamilton, da Universidade de Columbia, propôs no início dos anos 80 a aplicação ao estudo das formas de superfícies de uma técnica, chamada fluxo de Ricci, baseada nas equações de geometria diferencial como as que se utilizam na Teoria da Relatividade Geral. Este processo transforma uma superfície numa forma mais homogênea, redistribuindo a sua curvatura. Hamilton teve sucesso a aplicar este processo a objetos simples, mas os problemas surgiriam em objetos mais complicados que incluíssem pontos, chamados singularidades, cuja curvatura fosse infinita. Os topólogos poderiam removê-las, mas não havia garantias de que com este processo não se formassem singularidades novas.
    Seria Perelman a resolver este problema em 2002, ao demonstrar uma série de desigualdades que evidenciam que as singularidades acabam por se transformar todas em esferas ou tubos, num tempo finito após o fluxo de Ricci ter começado. Os topólogos poderiam assim removê-las e levar o fluxo de Ricci até ao fim, revelando a essência topológica dos espaços em questão e demonstrando as conjecturas de Poincaré e Thurston. O grande entusiasmo causado pela prova de Perelman deve-se nem tanto ao resultado em si, que pelo menos no caso da conjectura de Poincaré era bastante intuitivo e que toda a gente dava como verdadeiro, mas mais ao método usado, tendo-se revelado ligações profundas até então desconhecidas entre diferentes ramos da Matemática.
    Grisha Perelman, o matemático antivedeta
    Tal como esperado por todos os matemáticos, Grigory Perelman foi um dos vencedores da Medalha Fields. No entanto, o matemático não marcou presença no Congresso e recusou a medalha Fields, fato único na história deste prémio.
    Nascido em São Petersburgo em 1966, Perelman começa cedo a revelar um talento excepcional para a Matemática, tendo ganho, ainda na escola secundária, uma medalha de ouro na Olimpíada Internacional de Matemática de 1982. Depois de se doutorar, na Universidade Estatal de São Petersburgo, Perelman mudou-se para os Estados Unidos da América, tendo sido investigador de pós-doutoramento no Instituto Courant e nas Universidades do Estado de Nova Iorque (Stony Brook) e da Califórnia (Berkeley). Já na altura o seu trabalho era considerado de alto nível. Em 1995 tinha convites de outras universidades americanas como Princeton e Stanford, mas decidiu regressar à sua São Petersburgo e tornar-se membro do Instituto de Matemática Steklov, posição que mantém até hoje.
    soma 
conexa
    Fig. 2 – Soma conexa de 2 toros
    A sua reputação de cientista isolado começou em 1996, quando recusou um prêmio da Sociedade Européia de Matemática para jovens talentos. Nos anos que se seguiram manteve-se isolado em São Petersburgo, sem publicar nenhum artigo nem contactar com nenhum colega de outra universidade. Muita gente pensou então que Perelman simplesmente abandonara a investigação em Matemática. "Ninguém sabia que ele estava a trabalhar na conjectura de Poincaré", garante Michael Anderson da Universidade de Stony Brook. Mas em Novembro de 2002 Perelman revelou finalmente aquilo em que andara a trabalhar nos últimos oito anos, quando publicou em www.arxiv.org um "esboço" de uma prova completa. Imediatamente o artigo chamou a atenção nos EUA, tendo o autor sido convidado para dar minicursos em Stony Brook e no Instituto de Tecnologia do Massachussets (MIT) na Primavera de 2003. Nessa altura Perelman publicou mais dois artigos na internet com os pormenores da demonstração. Ainda hoje Perelman não os enviou para publicação em nenhum jornal, e não consta que pretenda fazê-lo.
    Em 2000 o Instituto Clay, uma instituição privada de investigação em Matemática, estabeleceu os sete "problemas do milênio", oferendo pela resolução de cada um deles um prémio de 1 milhão de dólares. A conjectura de Poincaré é um desses problemas. O prêmio ainda não lhe foi atribuído; antes, um júri tem de considerar a sua prova oficialmente válida, algo que poderá estar eminente. Mas Perelman já anunciou não estar interessado no dinheiro. Desde que regressou a São Petersburgo, Peterman não voltou a dar sinal de vida. Nenhum dos e-mails enviados quer a ele quer ao Instituto Steklov teve resposta. Nem mesmo os da organização do Congresso Internacional de Matemática, a convidá-lo para dar uma palestra principal.

    segunda-feira, 22 de março de 2010

    Fazendo contas

     Achamos essa reportagem bem interessante e seria engraçada se não fosse tão triste! Demonstra um pouco como a educação do Brasil está indo de mal a pior!

    Luiz Garcia,

    Assuntos políticos e da economia produziram, como é óbvio e inevitável, o maior número de manchetes de 2009, e não vai ser diferente em 2010.

    Mas, neste primeiro artigo do novo ano, falemos de problemas da educação, mesmo que seja para fazer graça com a pobre coitada. Como em época de festa ninguém gosta de fazer força, repasso um e-mail de Jorge Fontenelle, internauta que não conheço pessoalmente.

    É, com certeza, pessoa de alentado senso de humor.

    Fontenelle propõe uma visão da evolução — se é que essa é a palavra certa — do ensino da matemática nos últimos 50 anos, que atribui a uma desalentada professora. Ela usa como exemplo supostas mudanças no enunciado de um mesmo problema, para mostrar como andaram para trás os incentivos ao uso da inteligência pela meninada. Lá vai: 

    1. Ensino de matemática em 1950: Um lenhador vende um carro de lenha por R$ 100. O custo de produção é igual a 4/5 do preço de venda. Qual é o lucro? 

    2. Ensino de matemática em 1970: Um lenhador vende um carro de lenha por R$ 100. O custo de produção é igual a 4/5 do preço de venda ou R$ 80. Qual é o lucro?

    3. Ensino de matemática em 1980: Um lenhador vende um carro de lenha por R$ 100. O custo de produção é R$ 80. Qual é o lucro? 

    4. Ensino de matemática em 1990: Um lenhador vende um carro de lenha por R$ 100. O custo de produção é R$ 80. Escolha a resposta certa, que indica o lucro: ( ) R$ 20 ( ) R$ 40 ( ) R$ 60 ( ) R$ 80 ( ) R$100.

    5. Ensino de matemática em 2000: Um lenhador vende um carro de lenha por R$ 100. O custo de produção é R$ 80. O lucro é de R$ 20. Está certo? ( ) SIM ( ) NÃO.

    6. Ensino de matemática em 2009: Um lenhador vende um carro de lenha por R$ 100. O custo de produção é R$ 80. Se você souber ler coloque um X no R$ 20.

    ( ) R$ 20 ( ) R$ 40 ( ) R$ 60 ( ) R$ 80 ( ) R$ 100.

    7. Em 2010 vai ser assim: Um lenhador vende um carro de lenha por R$ 100. O custo de produção é R$ 80. Se você souber ler coloque um X no R$ 20,00.

    (Se você é afrodescendente, especial, indígena ou de qualquer outra minoria social não precisa responder).

    (X) R$ 20 ( ) R$40 ( ) R$ 60 ( ) R$ 80 ( ) R$ 100.


    Jornal O Globo | Publicada em 01/01/2010
    Você sabe a diferença entre deflação e inflação?
    As notícias referentes à economia muitas vezes usam a palavra deflação. Para os estudantes, o termo pode gerar dúvidas porque poucas vezes há explicações sobre o seu significado. Deflação é o oposto de inflação, que significa o aumento geral de preços.
    Se o índice geral de preços ao consumidor sobe, pode-se dizer que houve inflação no período. Se os preços caem, houve deflação.
    O que determina a inflação e a deflação é a média geral de preços e não de um produto isolado. Se apenas o preço do pão francês sobe ou desce durante um período, isso não pode ser chamado de inflação ou deflação. Houve apenas uma redução ou aumento no valor do produto.
    Mas, atenção: a deflação só é registrada quando há estabilidade nos preços, o que não significa necessariamente que a economia esteja próspera.
    No caso da economia brasileira, a deflação está geralmente relacionada à queda da atividade econômica, que é refletida na perda de poder aquisitivo da população. Para evitar a falência, a queda de preços é a única alternativa encontrada pelas empresas para garantirem a venda de seus estoques.
     
    Situação do ensino matemático no Brasil é dramática
    * Apenas 23% da população conhece números plenamente, faz cálculos e interpreta mapas, tabelas e gráficos.
    * 29% da população do país (ou mais de 52 milhões de pessoas), entre 15 e 64 anos, conseguem ler  números, mas têm muita dificuldade em resolver operações matemáticas simples, identificar proporções ou entender gráficos e tabelas.
    * Mais de 3 milhões de brasileiros nessa faixa etária (2% da população) são analfabetos absolutos em matemática. Isso quer dizer que não conseguem ler números simples, como preços em mercados, nem anotar corretamente números de telefone.
    * 80% dos entrevistados com até a terceira série do ensino fundamental não ultrapassavam o nível mais básico de domínio dos números, sem saber resolver nenhum tipo de cálculo.
    * A matemática no Provão teve a nota mais baixa de todos os cursos examinados. E a maioria dos professores de hoje se formou nesses cursos. Mais de 80% deles desconhece o conteúdo que têm de ensinar.

    Missão lunar japonesa fornece vislumbre sobre formação da Lua

    Dados provenientes da recém-desativada sonda espacial Kaguya sustenta a teoria de que a crosta da Lua congelou a partir de um oceano de magma
    por John Matson

    NASA/JPL/USGS
    Novo estudo sobre a Lua: evidências para a teoria predominante de sua evolução geológica
    A principal hipótese sobre a formação da Lua sustenta que um gigantesco impacto há bilhões de anos fez com que uma enorme massa de material planetário fosse separada da Terra, que se aglutinou para formar nosso satélite.

    No entanto, como concluíram pesquisadores que estudaram as amostras trazidas pela Apollo 11 em 1969, esse processo de coalescência não foi tranquilo – o calor da fusão deixou a Lua em formação coberta por um oceano de magma. Conforme esse oceano resfriou, seus componentes mais leves subiram para a superfície, formando uma camada externa que recobriu outras de rochas mais densas.

    Recentemente, uma pesquisa geológica realizada utilizando-se dados coletados pela recém-desativada sonda Kaguya endossa a hipótese do oceano de magma, constatando que a camada superior da crosta lunar é, de fato, rica em rochas de baixa densidade de pureza excepcional. Os resultados da Agência de Exploração Aeroespacial Japonesa, responsável pela Kaguya, anteriormente conhecida por SELENE (Selenological and Engineering Explorer), foram publicados na Nature ( a SCIENTIFIC AMERICAN faz parte do grupo editorial da Nature).

    A sonda orbital Kaguya procurou por anortosito, um tipo de rocha composto essencialmente por plagioclásio, mineral de baixa densidade. A sondagem efetuada pelo orbitador descobriu que nas crateras e bacias jovens encontradas nas terras altas – terreno que constitui a maior parte da crosta lunar – o anortosito além de prevalecer era quase totalmente puro, isto é, a rocha era composta praticamente por 100% de plagioclásio. Os autores do estudo especulam que uma camada global da crosta lunar, de 3 km até 30 km abaixo da superfície, possa ser composta do excepcionalmente puro anortosito.

    A quase exclusiva presença na crosta dessa rocha leve e flutuante indica um processo de formação idêntico através de toda a Lua, como um oceano de magma. Os resultados da Kaguya mostram que a formação de anortosito “é realmente um processo global”, observa John Longhi, petrologista do Observatório da Terra Lamont-Doherty, da Columbia University, e atualmente acadêmico convidado da Duke University, que não contribuiu para o estudo. “Embora eu tenha proposto outro modelo, essa pesquisa sugere que realmente não haveria outro meio para a formação da crosta lunar que não através do oceano de magma”.

    Os comentários de Longhi são significativos, já que Paul Warren, geoquímico da University of California, em Los Angeles, o considera “o autor do modelo que mais se opõe ao do oceano de magma”. Nesse modelo, a rocha rica em plagioclásio elevou-se para a parte superior da crosta como resultado de um reaquecimento após a cristalização de um oceano de magma. Outras teorias descartam inteiramente a necessidade de um oceano de magma.

    Warren, que não participou do estudo Kaguya, diz que a nova pesquisa sobre o anortosito “implica que deveria haver um processo incrivelmente eficiente de purificação desse mineral”. A predominância e pureza dessa rocha “não se coaduna com um modelo onde se tem coisas acontecendo de forma sequencial”, observa. “Tudo indica um processo global consistente, que é mais facilmente explicável pelo modelo do oceano de magma”.

    Tanto Longhi quanto Warren guardam certo ceticismo sobre o extraordinário nível de pureza do plagioclásio no anortosito detectado pela Kaguya, mas sustentam que as implicações gerais continuam relevantes. Uma composição extremamente homogênea é praticamente impossível de se encontrar por meio de sensoriamento remoto da Lua, observa Warren, porque o solo lunar é composto de uma mistura de poeira que certamente contaminaria, até certo ponto, qualquer tipo de superfície. “Quaisquer que sejam as composições extremas que possam existir na crosta abaixo, certamente estão cobertas” pelo depósito de solo, acrescenta.

    Acredito ser um pouco difícil acreditar em tudo”, observa Warren a respeito do estudo da Kaguya. “No entanto, mesmo que os detalhes estejam um pouco exagerados, a importância do que eles obtiveram é notável”.

    domingo, 21 de março de 2010

    Desafio - construção geométrica

    Dado um plano $$\color{white}\alpha$$ qualquer, tome dois pontos distintos A e B. Seja P um ponto qualquer deste plano. Determine todas as seoluções possíveis para as retas que passam por P e que são equidistantes de A e B.

    Desafio gentilmente sedido pelo professor Vladimir Thiengo.

    Recomendação - Curso de Cálculo 1

    O Professor Flávio Melo, está ministrando curso de cálculo 1, no GAP - Colégio Aprovação ltda. em Itaboraí - RJ. Quem estiver interessado entre em contato pelo seguinte número (21) 2635 - 1751 de segunda a sábado.

    O curso ajuda muito. Recomendamos aos universitários que acabaram de entrar na faculdade. Com o curso, já houve aluno que tirou 10 em  cálculo.

    quinta-feira, 18 de março de 2010

    John Forbes Nash

    Matemático norte-americano que trabalhou na Teoria dos jogos, na Geometria diferencial e na Equação de derivadas parciais, servindo como Matemático Sênior de Investigação na Universidade de Princeton. Compartilhou o Prêmio de Ciências Econômicas em Memória de Alfred Nobel de 1994 com Reinhard Selten e John Harsanyi.
    Nash também é conhecido por ter tido sua vida retratada no filme Uma Mente Brilhante, vencedor de 4 Oscars (indicado para 8), baseado no livro-biográfico homônimo, que apresentou seu gênio para a matemática e sua luta contra a esquizofrenia.

    Primeiros Anos

    John Nash nasceu e foi educado no Estado da Virgínia Ocidental. Seus pais foram o engenheiro eletricista John Forbes Nash e a professora de inglês e latim Virginia Margaret Martin. Em 16 de novembro de 1930 sua irmã Martha Nash nasceu. Nash sempre foi um ávido leitor da Time (revista), da Enciclopédia Compton e da Revista Life. Mais tarde conseguiu um emprego na Bluefield Daily Telegraph, um jornal diário da região.
    Aos doze anos, começou a realizar algumas experiências científicas em seu quarto; nessa época, era bastante evidente seu gosto pela solidão, pois preferia fazer as coisas sozinho a estar em contato e trabalhar em grupo. Ele relacionou a rejeição social de seus colegas com piadas e superioridade intelectual, acreditando que as danças e os esportes deles eram uma distração a partir de suas experiências e estudos.
    Martha, sua irmã mais nova, parece ter sido uma criança normal, enquanto que seu irmão parecia ser bem diferente das outras crianças. Ela escreveu mais tarde: "Johnny sempre foi diferente. [Meus pais] sabiam disso. E eles também sabiam que ele era brilhante. John sempre quis fazer as coisas à sua maneira. Minha mãe insistia para eu fazer as coisas por ele, para eu incluí-lo nas minhas amizades... mas eu não estava muito interessada em mostrar meu estranho irmão."
    Em sua autobiografia, Nash observa que foi o livro Homens da Matemática, de Eric Temple Bell - em particular o ensaio sobre Fermat - que o fez se interessar pela área. John assistiu as aulas do Colégio de Bluefield, enquanto na escola secundária. Mais tarde, frequentou a Universidade Carnegie Mellon, em Pittsburgh, Pensilvânia, onde estudou primeiramente engenharia química, antes de mudar para o curso de matemática. Recebeu tanto seu bacharelado quanto seu mestrado em 1948, no Instituto Carnegie.
    Após sua formatura, Nash teve um emprego em White Oak (Maryland), onde trabalhou para um projeto da Marinha dos Estados Unidos da América, dirigido por Clifford Truesdell.

    Vida após a graduação

    Embora tivesse sido aceito pela Universidade de Harvard, que tinha sido sua primeira escolha devido ao prestígio da instituição e pelos cursos superiores de matemática, Nash foi assediado agressivamente pelo então presidente do departamento de matemática da Universidade de Princeton, Solomon Lefshetz, cuja oferta da bolsa de John S. Kennedy foi o bastante para convencê-lo de que Harvard valia pouco. Assim, em White Oak, partiu para a Universidade de Princeton, onde trabalhou e desenvolveu o Equilíbrio de Nash. Ganhou seu doutorado em 1950 com uma dissertação sobre os jogos não-cooperativos. A tese, escrita sob a supervisão de Albert W. Tucker, continha definições e propriedades daquilo que, mais tarde, seria chamado de Equílibrio de Nash.
    Seu mais famoso trabalho tem relação com a matemática pura: o Teorema do encaixe de Nash.
    Em 1951, Nash foi para o Instituto Tecnológico de Massachusetts como instrutor de matemática. Lá, conheceu Alicia López-Lardé de Harrison (nascida em 1 de Janeiro de 1933), uma física estudante de El Salvador, com quem se casou em fevereiro de 1957. Alicia enviou Nash a um hospital psiquiátrico em 1959 devido a sua esquizofrenia; seu filho, John Charles Martin Nash, nasceu pouco tempo depois deste acontecimento.
    Nash e Alicia se divorciaram em 1963, mas reunificaram-se em 1970, numa relação não-romântica, em que ela abrigou-o como um companheiro. O casal renovou seu relacionamento após Nash ter sido galardoado com o Prêmio de Ciências Económicas em Memória de Alfred Nobel de 1994. Casaram-se novamente em 1 de junho de 2001.

    Esquizofrenia
    Nash começou a mostrar sinais de esquizofrenia em 1958, quando ainda estudava. Seu estado agravou-se para a paranóia e foi levado ao Hospital McLean (que abrigou pacientes famosos) em 1959, quando foi diagnosticado com esquizofrenia paranóica e depressão com baixa auto-estima. Depois de uma problemática estadia em Paris e Genebra, Nash retornou a Princeton em 1960. Permaneceu dentro e fora de hospitais psiquiátricos até 1970, onde passou por tratamentos que utilizavam Eletroconvulsoterapia e medicamentos antipsicóticos. Depois de 1970, à sua escolha, ele nunca mais tomou medicação antipsicótica novamente. Segundo Nasar, sua biógrafa, Nash começou a desenvolver uma recuperação gradativa com o passar do tempo.

    Reconhecimento
    Em 1978, foi atribuído a Nash o Prêmio John von Neumann Theory Prize, por suas descobertas quanto aos equilíbrios não-cooperativos, agora chamado de Equilíbrio de Nash. Ganhou também o Leroy P. Steele Prize em 1999.
    Em 1994, como resultado de seu trabalho com a teoria dos jogos, que desenvolveu quando estudante de Princeton, recebeu o Prêmio de Ciências Econômicas em Memória de Alfred Nobel (junto com dois outros estudiosos).
    Nash criou dois jogos populares: Hex (jogo) (criado independentemente em 1942), e So Long Sucker em 1950 com M. Hausner e Lloyd S. Shapley.

    Referencias
    1. Nasar, Sylvia. Uma Mente Brilhante, p. 32. Simon & Schuster, 1998
    2.  Nasar, Sylvia. Uma Mente Brilhante, p. 46-47. Simon & Schuster, 1998
    3.  Seeley G. Mudd Manuscript Library : FAQ John Nash
    Texto retirado de: John Forbes Nash - Wikipédia

    segunda-feira, 15 de março de 2010

    Fórmula de Leibniz

    A fórmula de Leibniz, em referência a Gottfried Leibniz, é uma fórmula que expressa a derivada de uma integral como a integral de uma derivada.
    Explicitamente, seja uma função de x dada pela integral definida:

    $$\int_{y_0}^{y_1}f(x,y)dy$$

    então para$$x \in (x_0,x_1)$$ a derivada desta expressão é:

    $$\frac{d}{dx}\int_{y_0}^{y_1}f(x,y)dy = \int_{y_0}^{y_1}\frac{\partial}{\partial x}f(x,y)dy$$

    desde que f e$$\frac{\partial f}{\partial x}$$ sejam ambas funções contínuas em uma região da forma

    $$[x_0,x_1] * [y_0,y_1].$$

    Gottfried Leibniz

    Gottfried Wilhelm von Leibniz (Leipzig, 1 de julho de 1646 — Hanôver, 14 de novembro de 1716) foi um filósofo, cientista, matemático, diplomata e bibliotecário alemão.
    A ele é atribuída a criação do termo "função" (1694), que usou para descrever uma quantidade relacionada a uma curva, como, por exemplo, a inclinação ou um ponto qualquer situado nela. É creditado a Leibniz e a Newton o desenvolvimento do cálculo moderno, em particular o desenvolvimento da Integral e da Regra do Produto. Demonstrou genialidade também nos campos da lei, religião, política, história, literatura, lógica, metafísica e filosofia.

    Notas Biográficas
    O pai era professor de filosofia moral em Leipzig e morreu em 1652, quando Leibniz tinha apenas seis anos. Em 1663 ingressa na Universidade de Leipzig, como estudante de Direito. Em 1666 obtém o grau de doutor em direito, em Nuremberg, pelo ensaio prenunciando uma das mais importantes doutrinas da posterior filosofia. Nessa época afilia-se à Sociedade Rosacruz, da qual seria secretário durante dois anos.
    Foi o primeiro a perceber que a anatomia da lógica - “as leis do pensamento”- é assunto de análise combinatória. Em 1666 escreveu De Arte Combinatoria, no qual formulou um modelo que é o precursor teórico de computação moderna: todo raciocínio, toda descoberta, verbal ou não, é redutível a uma combinação ordenada de elementos tais como números, palavras, sons ou cores.
    Na visão que teve da existência de uma “característica universal”, Leibniz encontrava-se dois séculos à frente da época, no que concerne à matemática e à lógica.
    Aos 22 anos, foi-lhe recusado o grau de doutor, alegando-se juventude. Tinha vinte e seis anos, quando passou a ter aulas com Christiaan Huygens, cujos melhores trabalhos tratam da teoria ondulatória da luz. A maior parte dos papéis em que rascunhava suas idéias, nunca revisando, muito menos publicando, encontra-se na Biblioteca Real de Hanôver aguardando o paciente trabalho de estudantes. Leibniz criou uma máquina de calcular, superior à que fora criada por Pascal, fazendo as quatro operações.
    Em Londres, compareceu a encontros da Royal Society, em que exibiu a máquina de calcular, sendo eleito membro estrangeiro da Sociedade antes de sua volta a Paris em março de 1673. Em 1676, já tinha desenvolvido algumas fórmulas elementares do cálculo e tinha descoberto o teorema fundamental do cálculo, que só foi publicado em 11 de julho de 1677, onze anos depois da descoberta não publicada de Newton. No período entre 1677 e 1704, o cálculo leibniziano foi desenvolvido como instrumento de real força e fácil aplicabilidade no continente, enquanto na Inglaterra, devido à relutância de Newton em dividir as descobertas matemáticas, o cálculo continuava uma curiosidade relativamente não procurada.
    Durante toda a vida, paralelamente à Matemática, Leibniz trabalhou para aristocratas, buscando nas genealogias provas legais do direito ao título, tendo passado os últimos quarenta anos trabalhando exclusivamente para a família Brunswick, chegando a confirmar para os empregadores o direito a metade de todos os tronos da Europa. As pesquisas levaram-no pela Alemanha, Áustria e Itália de 1687 a 1690. Em 1700, Leibniz organizou a Academia de Ciências da Prússia, da qual foi o primeiro presidente. Esta Academia permaneceu como uma das três ou quatro principais do mundo até que os nazistas a eliminaram.
    Morreu solitário e esquecido. O funeral foi acompanhado pelo secretário, única testemunha dos últimos dias.

    Filósofo 

    O pensamento filosófico de Leibniz parece fragmentado, porque seus escritos filosóficos consistem principalmente de uma infinidade de escritos curtos: artigos de periódicos, manuscritos publicados muito tempo depois de sua morte, e muitas cartas a muitos correspondentes. Ele escreveu apenas dois tratados filosóficos, dos quais apenas "Téodiceia" de 1710 foi publicado em sua vida.
    Leibniz data o seu começo na historia da filosofia com seu "Discurso sobre metafísica", que ele compôs em 1686 como um comentário sobre uma contínua disputa entre Malebranche e Antoine Arnauld. Isto levou a uma extensa e valiosa correspondência com Arnauld;o Discurso sobre metafisica não foi publicado até o século 19. Em 1695, Leibniz fez sua entrada pública na filosofia européia, com um artigo de jornal intitulado "Novo Sistema da Natureza e da comunicação das substâncias".Entre 1695 e 1705, compôs o seu "Novos ensaios sobre o entendimento humano", um longo comentário sobre John Locke em seu "Ensaios sobre o entendimento humano", mas ao saber da morte de Locke, 1704, perdeu o desejo de publicá-lo, Isto aconteceu até que os novos ensaios foram publicados em 1765. "A Monadologia", composta em 1714 e publicado postumamente, é constituída por 90 aforismos.
    Leibniz conheceu Espinoza, em 1676, leu alguns de seus escritos inéditos, e desde então tem sido suspeito de apropriar-se de algumas das idéias de Espinosa. Embora Leibniz admirava o poderoso intelecto de Espinosa, ele também foi francamente desanimado com as conclusões de Spinoza, especialmente quando estes eram incompatíveis com a ortodoxia cristã.
    Ao contrário de Descartes e Espinoza, Leibniz tinha uma formação universitária completa na filosofia. Sua carreira começou, ao longo de uma influência escolar e aristotélica traíndo a forte influência de um de seus professores de Leipzig, Jakob Thomasius, que também supervisionou a sua tese de Licenciatura em Filosofia. Leibniz também ansiosamente leu Francisco Suárez, jesuíta espanhol respeitados, mesmo em universidades Luteranas. Leibniz estava profundamente interessado em novos métodos e as conclusões de Descartes, Huygens, Newton e Boyle, mas viu o seu trabalho através de uma lente fortemente matizadas por noções escolasticas. No entanto, a verdade é que os métodos de Leibniz e suas preocupações, muitas vezes anteciparam a lógica e a analítica, assim como a filosofia da linguagem do século 20.

    Princípios 

    Liberdade x determinação: Leibniz admitia uma série de causas eficientes a determinar o agir humano dentro da cadeia causal do mundo natural. Essa série de causas eficientes dizem respeito ao corpo e seus atos. Contudo, paralela a essa série de causas eficientes, há uma segunda série, a das causas finais. As causas finais poderiam ser consideradas como uma infinidade de pequenas inclinações e disposições da alma, presentes e passadas, que conduzem o agir presente. Há, como em Nietzsche, uma infinidade imensurável de motivos para explicar um desejo singular. Nesse sentido, todas as escolhas feitas tornam-se determinantes da ação. Cai por terra a noção de arbitraridade ou de ação isolada do contexto. Parece também cair por terra a noção de ação livre, mas não é o que ocorre. Leibniz acredita na ação livre, se ela for ao mesmo tempo 'contingente, espontânea e refletida'.
    A Contingência: A contingência opõe-se à noção de necessidade, não à de determinação. A ação é sempre contingente, porque seu oposto é sempre possível.
    A Espontaneidade: A ação é espontânea, quando o princípio de determinação está no agente, não no exterior deste. Toda ação é espontânea e tudo o que o indivíduo faz depende, em última instância, dele próprio.
    A Reflexão: Qualquer animal pode agir de forma contingente e espontânea. O que diferencia o animal humano dos demais é a capacidade de reflexão que, quando operada, caracteriza uma ação como livre. Os homens têm a capacidade de pensar a ação e saber por que agem.

    Cientista e Engenheiro

    Os escritos de Leibniz estão a ser discutidos até os dias de hoje, não apenas por suas antecipações e possíveis descobertas ainda não reconhecidas, mas como formas de avanço do conhecimento atual. Grande parte de seus escritos sobre a física está incluído na Escritos Matemáticos de Gerhardt.
    Física: Leibniz teve grandes contribuições para a estática e a dinâmica emergentes sobre ele, muitas vezes em desacordo com Descartes e Newton. Ele desenvolveu uma nova teoria do movimento (dinâmicas) com base na energia cinética e energia potencial, que postulava o espaço como relativo, enquanto Newton sentira fortemente o espaço como algo absoluto. Um exemplo importante do pensamento maduro de Leibniz na questão da física é seu Specimen Dynamicum de 1695.
    Até a descoberta das partículas subatômicas e da mecânica quântica que os regem, muitas das idéias especulativas de Leibniz sobre aspectos da natureza não redutível a estática e dinâmica faziam pouco sentido. Por exemplo, ele antecipou Albert Einstein, argumentando, contra Newton, que o espaço, tempo e movimento são relativos, não absolutos. As regras de Leibniz é um importante, se muitas vezes esquecida provas em diversos campos da física. O princípio da razão suficiente tem sido invocado na cosmologia recente, e sua identidade dos indiscerníveis na mecânica quântica, um campo de algum crédito, mesmo com ele tendo antecipado em algum sentido. Aqueles que defendem a filosofia digital, uma direcção recente em cosmologia, alegão Leibniz como precursor.


    quinta-feira, 11 de março de 2010

    Poesia Matemática

    Millôr Fernandes


    Às folhas tantas
    do livro matemático
    um Quociente apaixonou-se
    um dia
    doidamente
    por uma Incógnita.
    Olhou-a com seu olhar inumerável
    e viu-a do ápice à base
    uma figura ímpar;
    olhos rombóides, boca trapezóide,
    corpo retangular, seios esferóides.
    Fez de sua uma vida
    paralela à dela
    até que se encontraram
    no infinito.
    "Quem és tu?", indagou ele
    em ânsia radical.
    "Sou a soma do quadrado dos catetos.
    Mas pode me chamar de Hipotenusa."
    E de falarem descobriram que eram
    (o que em aritmética corresponde
    a almas irmãs)
    primos entre si.
    E assim se amaram
    ao quadrado da velocidade da luz
    numa sexta potenciação
    traçando
    ao sabor do momento
    e da paixão
    retas, curvas, círculos e linhas sinoidais
    nos jardins da quarta dimensão.
    Escandalizaram os ortodoxos das fórmulas euclidiana
    e os exegetas do Universo Finito.
    Romperam convenções newtonianas e pitagóricas.
    E enfim resolveram se casar
    constituir um lar,
    mais que um lar,
    um perpendicular.
    Convidaram para padrinhos
    o Poliedro e a Bissetriz.
    E fizeram planos, equações e diagramas para o futuro
    sonhando com uma felicidade
    integral e diferencial.
    E se casaram e tiveram uma secante e três cones
    muito engraçadinhos.
    E foram felizes
    até aquele dia
    em que tudo vira afinal
    monotonia.
    Foi então que surgiu
    O Máximo Divisor Comum
    freqüentador de círculos concêntricos,
    viciosos.
    Ofereceu-lhe, a ela,
    uma grandeza absoluta
    e reduziu-a a um denominador comum.
    Ele, Quociente, percebeu
    que com ela não formava mais um todo,
    uma unidade.
    Era o triângulo,
    tanto chamado amoroso.
    Desse problema ela era uma fração,
    a mais ordinária.
    Mas foi então que Einstein descobriu a Relatividade
    e tudo que era espúrio passou a ser
    moralidade
    como aliás em qualquer
    sociedade.


    Texto extraído do livro "Tempo e Contratempo", Edições O Cruzeiro - Rio de Janeiro, 1954, pág. sem número, publicado com o pseudônimo de Vão Gogo.

    Desafio Resolvido

    Parabéns

    Romero Morais conseguiu resolver este desafio!




    Resolução:



    Temos:
    $$N = P_y = m.g cos\theta$$
    $$Fat = \mu . N = \mu . m.g.cos\theta$$
    $$P_x = m.g.sen\theta$$
    $$d$$ é a distância genérica percorrida pelo bloco.

    Trabalho na ida:

    $$\tau_T = \Delta{E_c}$$
    $$\tau_{Fat} + \tau_{P_x} + \tau_{P_y} + \tau_N = E_{cF} - E_{cI}$$
    $$\tau_{Fat} + \tau_{P_x} + E_{cF} = E_{cF} - E_{cI}$$
    $$\tau_{Fat} + \tau_{P_x} = -E_{cI}$$
    $$-\mu . m.g.cos\theta . d - m.g.sen\theta.d = -\frac{m.v^2}{2}$$
    $$d = \frac{v^2}{2g(\mu cos\theta + sen\theta)}$$

    Trabalho na volta:

    $$\tau_T = \Delta{E_c}$$
    $$\tau_{Fat} + \tau_{P_x} + \tau_{P_y} + \tau_N = E_{cF} - E_{cI}$$
    $$\tau_{Fat} + \tau_{P_x} - E_{cI} = E_{cF} - E_{cI}$$
    $$\tau_{Fat} +\tau_{P_x} = E_{cF}$$
    $$-\mu.m.g.cos\theta.d + m.g.sen\theta.d = \frac{m.v^2}{2}(\div m)$$
    $$-\mu.g.cos\theta \left[ \frac{V_0^2}{2g(\mu.cos\theta + sen\theta)}\right] + g.sen\theta \left[ \frac{V_0^2}{2g(\mu cos\theta + sen\theta)}\right] = \frac{V^2}{2}$$
    $$V = V_0\sqrt{\frac{sen\theta - \mu cos\theta}{sen\theta + \mu cos\theta}}$$

    Alternativa B.

    segunda-feira, 8 de março de 2010

    Desafio - Física

    Na figura, um bloco sobe um plano inclinado, com velocidade inicial $$V_0$$. Considere $$\mu$$ o coeficiente de atrito entre o bloco e a superfície. Indique sua velocidade ao passar pela posição inicial.





    A. $$V_0\sqrt{\frac{sen\theta - \mu cos\theta}{sen\theta - \mu cos\theta}}$$


    B. $$V_0\sqrt{\frac{sen\theta - \mu cos\theta}{sen\theta + \mu cos\theta}}$$


    C. $$V_0\sqrt{\frac{sen\theta + \mu cos\theta}{sen\theta - \mu cos\theta}}$$


    D. $$V_0\sqrt{\frac{sen\theta + \mu cos\theta}{sen\theta + \mu cos\theta}}$$



    A resolução só será aceita mediante a apresentação dos cálculos.

    domingo, 7 de março de 2010

    O que aconteceria se você caísse no interior de um buraco negro?

    É possível saber o que há lá dentro? É mesmo um caminho sem volta?

    Por Salvador Nogueira

    Como até hoje ainda não há consenso sobre o que acontece no ponto central desses objetos, os cientistas costumam varrer o tema para baixo do tapete. Afinal, buracos negros não parecem seguir a lógica do Universo em que vivemos. A rota que leva ao seu interior é um caminho sem volta. Mas, afinal, o que é um buraco negro?

    Em 1916, o físico alemão Karl Schwarzschild usou a Teoria da Relatividade Geral para entender o que acontecia em torno de objetos muito densos, como as estrelas. Ele concluiu que, se a massa de uma estrela pudesse ser suficientemente compactada, haveria um ponto em que a velocidade de escape daquele objeto seria tão alta que nada conseguiria escapar dele – nem mesmo a luz. Como, pela Teoria da Relatividade, é o traçado da luz que determina a geometria do Universo, o fato de haver uma região da qual um raio de luz não consegue escapar indica que ali há um buraco no próprio tecido do espaço-tempo do Universo.

    Ou seja, um buraco negro. Até aí, era só uma brincadeira teórica. O próprio Einstein sempre levou isso na boa, pois não podia imaginar que o Universo fosse cheio de buracos. Em 1939, ele chegou a escrever um artigo repudiando a possibilidade de que esses fenômenos existissem. Mas acontece que Einstein também errava.

    Os astrofísicos descobriram que estrelas com muita massa, quando chegam ao fim de sua vida, implodem o seu núcleo. A matéria é comprimida a tal ponto pela ação gravitacional que o tamanho do objeto fica menor que o chamado “raio de Schwarzschild”, e o resultado é o nascimento de um buraco negro.

    Essa foi uma descoberta surpreendente – o Cosmos é, de fato, esburacado. Hoje sabemos que existem vários buracos negros gerados por estrelas mortas e no núcleo de cada galáxia de médio ou grande porte. Muito bem. Mas o que acontece no interior desse objeto? Segundo a relatividade, a massa é comprimida até um ponto infinitamente denso, quente e pequeno – chamada de singularidade.

    O que resultaria daí, ainda é tema de várias hipóteses. De acordo com o físico americano Lee Smolin, cada buraco negro seria um ponto de partida para o nascimento de um novo Universo, muito parecido com o nosso. Pode ser uma idéia maluca, mas, convenhamos, a descrição da singularidade do buraco negro é muito parecida com a do estágio inicial do nosso Universo, o famoso big-bang.

    Caso ele esteja correto, é possível que o buraco negro, ao menos no instante exato de sua formação, abra caminho para um Universo-bebê. A questão que fica é: podemos ir até lá? Por enquanto, a resposta da ciência é a de que podemos – contanto que aceitemos ser despedaçados. Como, antes de cair nele, temos de nos aproximar dele, a velocidade que ganharíamos nesse processo seria tão grande que viraríamos farinha antes de atravessá-lo.

    É isso que acontece o tempo todo com estrelas que estão para cair num desses devoradores, cujas massas são aceleradas tão intensamente que deixam rastros de raios X – a deixa para que os cientistas detectem um buraco negro.

    Pondo de lado essa limitação, suponhamos que pudéssemos atravessá-lo até perto do seu núcleo, protegidos por uma espaçonave. O que aconteceria? Segundo o físico britânico Freeman Dyson, passaríamos a fronteira sem sentir sequer um solavanco. Entretanto, um observador externo que nos visse caindo teria uma percepção bem diferente – é a relatividade em ação. “Se nos imaginássemos caindo em um buraco negro, nossa percepção de tempo e espaço estaria desvinculada do tempo e espaço de um observador que nos acompanhasse de fora”, diz Dyson. “Enquanto nos veríamos caindo suavemente no buraco sem qualquer desaceleração, o observador externo nos veria cair indefinidamente sem jamais tocar o fundo.”
     Fonte: Superinteressante.

    sexta-feira, 5 de março de 2010

    Tetravista de z²

    As três Tetravistas mostradas na exposição são uma tentativa para entender melhor gráficos de funções complexas. O gráfico duma função de variável complexa está no espaço complexo bidimensional, que pode ser identificado naturalmente com o espaço real tetradimensional. Ou seja, se z = x + iy e w = f(z) = u + iv, então o ponto (z,f(z)) do gráfico de f pode ser tomado como sendo (x,y,u,v) no espaço tetradimensional, e assim o gráfico é uma superfície nesse espaço. Como se pode estudar esta superfície?
    Antes de responder a esta questão, pensemos primeiro como podemos compreender um objeco no espaço tridimensional, por exemplo, um cubo com vértices em ( ± 1, ± 1, ± 1). Há três vistas matematicamente naturais deste cubo no espaço tridimensional: uma olhando para ele a partir de um ponto situado na parte positiva do eixo dos xx, outra segundo o semi-eixo positivo dos yy e a terceira similar para o eixo dos zz. Em cada uma das três vistas, o que se obtém é uma das faces quadradas do cubo (mas uma face diferente de cada vez). Claro que há muitas outras vistas do cubo, pois há muitas outras direções de onde se pode olhar para ele. Uma maneira de pensar nessas direções é imaginando uma grande esfera envolvendo o cubo; cada ponto da superfície dessa esfera representa um ponto de vista diferente, e portanto uma vista diferente do cubo. As três vistas descritas acima correspondem aos pontos onde os semi-eixos coordenados positivos intersectam a superfície da esfera.
    Estes três pontos formam os vértices dum triângulo esférico, e podemos perguntar: Que vista se tem observando o cubo de diferentes pontos desse triângulo? Se nos movermos ao longo dum lado do triângulo, de um vértice para outro, passamos duma situação em que vemos uma face do cubo para uma em que vemos outra face. As nossas vistas intermédias neste percurso mostram uma face diminuindo até se confundir com uma aresta, enquanto a outra vai aumentando até ser a única que se vê. Isto corresponde a uma rotação do cubo em torno do eixo que passa pelo vértice oposto à aresta que atravessamos; desta forma, a cada aresta corresponde a uma rotação em torno dum dos eixos. No meio caminho entre dois vértices do triângulo esférico, a nossa vista está diretamente sobre uma das arestas do cubo e ambas as suas faces adjacentes são vistas com o mesmo tamanho, apesar de nenhuma parecer quadrada nesta situação. Se virmos o cubo a partir do ponto central do triângulo esférico, estaremos a ver diretamente sobre um canto do cubo, e novamente teremos uma vista simétrica (agora abrangendo as três faces distorcidas do cubo). 

    Três vistas do cubo: olhando diretamente para uma face (esquerda), diretamente
    para uma aresta (centro) ou diretamente para um vértice (direita). Estas vistas
    correspondem a pontos de vista localizados em várias posições num triângulo
    esférico: num vértice, no centro de um lado ou no centro do triângulo.

    Agora suponhamos que o cubo é transparente e que colocamos um objeto no seu interior. Então as três vistas tomadas dos vértices do triângulo esférico mostram-nos as três vistas do objeto através dos lados do cubo (estas são como as três vistas de arquitetura: planta, alçado lateral e alçado frontal). Conforme vamos nos movendo ao longo dos lados do triângulo, rodamos entre estas vistas do objeto dentro do cubo (por exemplo, indo do alçado frontal para o alçado lateral). Olhando a partir do centro do triângulo podemos ver três lados do cubo duma vez, obtendo uma vista combinada que é, em certo sentido, uma média das outras três (e que corresponde ao desenho em perspectiva que um arquiteto faz duma casa).
    As tetravistas fazem a mesma coisa no espaço tetradimensional. O cubo agora é um hipercubo a quatro dimensiões (é transparente, pelo que não aparece nas imagens), e o objeto no seu interior é o gráfico duma função complexa. Os pontos de vista diferentes assentam sobre uma grande esfera no espaço tetradimensional que contém o hipercubo, e como há quatro eixos, estes intersectam a esfera em quatro pontos. Estes pontos formam os vértices de um tetraedro esférico na esfera (donde o nome "tetravista"). As quatro vistas dos cantos deste tetraedro representam projecções do gráfico da função segundo cada um dos eixos coordenados. Estas são mostradas na figura nos quatro cantos da imagem e são arrumados de forma a sugerir um tetraedro: dois estão mais longe, atrás (inferior esquerdo e superior direito), enquanto outros dois estão próximos, à frente (superior esquerdo e inferior direito). Os cantos de trás são as projeções nos espaços xyu e xyv, e portanto representam os gráficos das partes real e imaginária da função, enquanto que os outros dois cantos são projeções nos espaços xuv e yuv, que representam as partes real e imaginária da função inversa. A imagem central é a vista do centro do tetraedro esférico, representando uma combinação das outras quatro, a vista mais geral da superfície no espaço tetradimensional.
    Como no triângulo esférico no espaço tridimensional, os caminhos ao longo dos lados do tetraedro esférico representam rotações da superfície dentro do hipercubo. Esta ideia é explorada mais extensivamente no artigo "Understanding Complex Function Graphs", que inclui métodos interativos para navegar entre as vistas tomadas do tetraedro esférico.
    As superfícies mostradas nas três tetravistas correspondem à função quadrática complexa w = z2, função cúbica complexa w = z3 e função exponencial complexa w = ez. Para determinar as superfícies em termos das quatro coordenadas reais, usamos o fato de que z = x + iy, w = u + iv e i2 = - 1. Então para w = z2 temos:

    $$\color{white}\begin{matrix}w=(x+iy)^2\\x^2 + 2xiy + i^2y^2\\x^2 - y^2 + 2xiy\end{matrix}$$,

    onde u = x2 - y2 e v = 2xy. Daqui temos o gráfico parametricamente como (x, y, x2 - y2, 2xy). As outras superfícies são tratadas de forma similar.

    Fonte: Para além da terceira dimensão, por Thomas F. Banchoff e Davide P. Cervone