Subscribe Twitter Facebook

sábado, 26 de junho de 2010

Existência de novo elemento químico é confirmada por dois laboratórios

Átomos com 114 prótons são produzidos; propriedades ainda são desconhecidas
A tabela periódica deve ficar maior: três laboratórios independentes criaram átomos com 114 prótons em seu núcleo.
Em 1999, pesquisadores do Instituto de Pesquisa Nuclear em Dubna, Rússia, afirmaram ter criado átomos do elemento 114. Mas não havia confirmação independente. Agora, dois outros laboratórios também conseguiram fabricar o elemento.
Uma equipe foi liderada por Heino Nitsche e Ken Gregorich, no Laboratório Nacional Lawrence Berkeley, na Califórnia; a outra foi liderada por Christoph Düllmann, do Centro de Pesquisa em Íons Pesados, em Darmstadt, Alemanha.
Como o grupo de Dubna, os grupos americano e alemão lançaram átomos de cálcio, contendo 20 prótons em seu núcleo, contra átomos de plutônio, contendo 94 átomos.
Em alguns casos, o núcleo de um átomo de cálcio se fundiu com o de um átomo de plutônio, criando um átomo com 114 prótons.
O laboratório americano detectou dois átomos do elemento 114, enquanto o laboratório alemão detectou 13.
A maioria dos átomos decaiu para átomos mais leves em frações de segundo, embora um deles tenha levado 3,6 segundos para se quebrar.
A cadeia de produtos de decaimento fornece uma assinatura que confirma a existência do elemento 114.
Os resultados foram publicados no periódico "Physical Review Letters".
Batismo
Com base nesses resultados, a Iupac (União Internacional de Química Pura e Aplicada, na sigla em inglês) redigiu um relatório para adicionar oficialmente o elemento à tabela periódica. O relatório está em processo de revisão.
Se aprovado, além da adição à tabela periódica, o novo elemento deve ganhar um nome. Em fevereiro, um elemento com 112 prótons foi reconhecido pela Iupac e chamado de copernício em homenagem ao astrônomo polonês Nicolau Copérnico.
Propriedades
As propriedades químicas do elemento 114 ainda são uma incógnita. O elemento pode ser tanto um gás nobre quanto um metal dependendo de seu comportamento.
O experimento alemão permitiu criar e capturar o elemento de uma forma mais eficiente, o que deve permitir a realização de testes mais eficientes.
Se o elemento 114 for capaz de grudar em uma superfície de ouro, por exemplo, ele estaria mais próximo dos metais. Se, por outro lado, o elemento 114 não interagir com ouro, ele seria considerado um gás nobre.

Fonte: Jornal da Ciência

Neil Peart - Um dos Maiores bateristas da atualidade

Neil Peart começou a tocar bateria aos 13 anos de idade, observando os grandes nomes que se apresentavam na época. Após uma temporada em Londres, volta desanimado para o Canadá e participa de uma seleção para o novo baterista do Rush. Entra para a banda no dia do aniversário de Geddy Lee, em 29 de julho de 1974, e duas semanas após a 1ª turnê americana do grupo. Finalmente se apresenta pela primeira vez com o Rush no dia 14 de agosto de 1974, tocando para 11.642 pessoas no Civic Arena, Pittsburgh, USA, na abertura de shows do Uriah Heep e Manfred Mann. Seu primeiro Drum Kit Profissional foi um Slingerland prata. Suas principais influências musicais foram Keith Moon, do The Who, Bill Bruford do Yes e Carl Palmer do Emerson Lake & Palmer, todos originalmente muito técnicos e criativos. Neil é um ávido leitor e suas influências como letrista são: J.R.R. Tolkien, Ernest Hemmingway, John Steinbeck, F. Scott Fitzgerald, Dos Passos, Barth, Ayn Rand and Gabriel Garcia Marquez.
Como escritor lançou: "The African Drum"(1988), "Raindance Over the Rockies"(1988), "Drum Beats"(1994) , "The Masked Rider"(1996), "Ghost Rider" (julho de 2002) e "Traveling Music:Playing Back The Soundtrack To My Life and Times (2004)
Em 1996 lançou "Neil Peart - A Work In Progress" - 2 vídeos que documentam a gravação do álbum "Test For Echo" do Rush. Também produz 2 Tributos ao baterista Buddy Rich "Rurning For Buddy: A Tribute To The Music of Buddy Rich" Vol.1 em 1994, e Vol.2 em 1997.
Em agosto de 1997 começa o "calvário" de Neil, com a morte de sua filha única Selena, num acidente fatal de Jippe. Dez meses depois,em junho de 1998, sua mulher Jacqueline Taylor morre de câncer. O Rush pára por cinco anos. Neil faz sua famosa "viagem de renascimento" em cima de uma motocicleta por quase toda a América do Norte e parte de México. Na volta é um outro homem. Começa a compor novo material. Casa-se com a fotógrafa Carrie Nuttall em 2002. Eles residem atualmente em Los Angeles - CA .

Família: -
Irmãos: Danny, Judy e Nancy
Esposa: (1ª) Jacqueline Taylor (falecida), (2ª) Carrie Nuttall
Filhos: Selena Taylor (falecida)
Passatempos: Praticar bateria, andar de moto e leitura de livros
Esportes Favoritos: Ciclismo e Arco e Flexa

Neil Peart foi um marco na história da bateria. Ele agrupou vários instrumentos percurssivos, até então não utilizados na bateria, para fazer um som diferente. Constituindo assim umas das baterias com mais peças que se tem notícia. Assistam o solo dele:



ELEIÇÃO DOS LEITORES DA REVISTA "MODERN DRUMMER"

. Baterista Novo Mais Promissor: 1980
. Melhor Baterista de Rock: 1980, 1981, 1982, 1983, 1984, 1985
. Melhor Performance Gravada:
- 1981 - Moving Pictures
- 1981 - Exit...Stage Left
- 1982 - Signals
- 1985 - Grace Under Pressure
- 1986 - Power Windows
- 1988 - Hold Your Fire
- 1989 - A Show Of Hands
- 1990 - Presto
- 1992 - Roll The Bones
- 1994 - Counterparts
- 1997 - Test For Echo
- 1999 - Different Stages
. Melhor Instrumentista de Percussão: 1982
. Melhor Multi-Percussionista: 1983, 1984, 1985, 1986
. Hall Of Fame: 1983
. Sala De Honra - Melhor Multi-Percussionista: 1986
. Sala De Honra - Melhor Baterista de Rock: 1986
. Melhor Baterista De Todos Os Tempos: 1986

quarta-feira, 23 de junho de 2010

Brasil ganha quatro medalhas na Olimpíada de Matemática no Cone Sul

Foram uma medalha de ouro, duas de prata e uma de bronze

O Brasil conquistou quatro medalhas na 21ª Olimpíada de Matemática do Cone Sul, realizada no sábado (19), em Água de São Pedro (SP).
O estudante João Lucas Camelo Sá, de Fortaleza (CE), levou o ouro. Gabriel Militão Vinhas Lopes, de Fortaleza, e Maria Clara Mendes Silva, de Pirajuba (MG), ganharam prata, enquanto Caíque Porto Lira, também de Fortaleza, ficou com o bronze.
A competição teve a participação de 32 estudantes do ensino médio, com representantes da Argentina, Bolívia, Brasil, Chile, Equador, Paraguai, Peru e Uruguai.
As equipes foram formadas por até quatro estudantes, com provas realizadas em dois dias consecutivos. Em cada dia, foram resolvidos três problemas em quatro horas e meia de prova. Todos os integrantes da equipe nacional conquistaram medalhas.
Essa foi a quarta edição da competição no Brasil. A primeira Olimpíada de Matemática do Cone Sul ocorreu em Montevidéu, Uruguai, em 1988, tendo representantes de apenas quatro países.
Desde sua primeira participação no certame o Brasil já conquistou um total de 77 medalhas, sendo 19 de ouro, 30 de prata e 28 de bronze. A participação brasileira é organizada por meio da Olimpíada Brasileira de Matemática (OBM).
A OBM é um projeto conjunto da Sociedade Brasileira de Matemática (SBM), do Instituto de Matemática Pura e Aplicada (Impa/MCT) e tem o apoio do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq/MCT) e do Instituto Nacional de Ciência e Tecnologia da Matemática (INCT-Mat).

Fonte: Jornal da Ciência

Centro do colisor de Hádrons está aberto para países não europeus

'Estrangeiros' podiam participar de experimentos, mas não liderá-los. Abertura abre possibilidade de expansão do orçamento do LHC
O Cern, centro europeu de pesquisas voltado para o estudo das partículas, que atualmente conduz a maior experiência científica da humanidade (o Grande Colisor de Hádrons - LHC, na sigla em inglês), está aberto para que os países de todo o planeta, que tenham qualificação para tanto, tornem-se membros da instituição.
Até agora, o centro criado há 56 anos perto de Genebra, entre a fronteira da França e da Suíça, dono de um orçamento anual de 10 bilhões de francos suíços (US$ 8,7 bilhões), havia aceitado apenas Estados europeus como membros plenos, embora muitos outros participem de suas atividades.
"Este é um salto gigantesco para a física das partículas que reconhece a globalização crescente da área", disse Michel Spiro, presidente do conselho normativo do Cern, que tomou a decisão no fim de semana. Rolf Heuer, diretor-geral do organismo cujos cientistas venceram uma série de prêmios Nobel e que fez pesquisas que levaram à criação da internet (em 1989), afirmou que a mudança reflete o interesse global na pesquisa sobre o nascimento do universo.
A mudança não necessariamente significa mais dinheiro para o Cern, cujo orçamento é fixo por cinco anos e depois compartilhado entre seus membros, de acordo com o porta-voz James Gillies. Mas quer dizer que há uma potencial fonte de receita extra para a organização, que, segundo críticos, consome enormes fundos que poderiam ser utilizados para finalidades mais práticas.
Os defensores, e os governos que aprovam o seu orçamento, afirmam que há muitas consequências benéficas à economia e para a saúde derivadas da atividade do centro. Fundado em 1954 por 12 países europeus com o objetivo de restaurar o papel do continente na pesquisa da área da física após a Segunda Guerra Mundial, o Cern (Organização Europeia para a Pesquisa Nuclear) atualmente tem 20 membros.

Uma nova Revolução Industrial, artigo de Marcelo Gleiser

"Alguma coisa tem de ser mudada na maneira como se usa energia. E não só nos EUA, mas no mundo"

Marcelo Gleiser é professor de física teórica no Dartmouth College, em Hanover (EUA). Artigo publicado na "Folha de SP":

Na semana passada, um sombrio presidente Obama falou ao povo americano da Casa Branca. "É inaceitável não fazermos nada", afirmou. Seu discurso tinha o tom de um grito de guerra, se não na intensidade da sua voz (ele nunca perde a linha), ao menos na mensagem. Na quarta, a empresa petroleira BP criou um fundo de US$ 20 bilhões para ressarcir a população costeira que sofre com os milhões de galões de petróleo que cobrem suas praias e destroem seu ganha-pão.
Imagine algo semelhante ocorrendo no Brasil: a costa de Campos até Angra coberta por uma enorme mancha negra; ninguém vai à praia, os pescadores não pescam. As garantias oferecidas pela BP contra esse tipo de desastre, "estamos preparados para algo muito pior", não funcionaram.
Parece ser bem mais fácil escavar um poço submarino a 1.500 m de profundidade do que saber como extirpar o seu vazamento.
É tudo uma questão de prioridade corporativa. A exploração do petróleo se dá em lugares cada vez mais remotos. Veja os 50 bilhões de barris na costa do Rio enterrados sob uma densa camada de sal e a 2.200 m de profundidade. Será que seremos capazes de deter um vazamento?
Obama lembrou aos americanos que seu país consome em torno de 20% do petróleo mundial, enquanto suas reservas são de apenas 2%. Não é necessário ser um estrategista para ver que isso é um problema sério: se uma nação precisa de um recurso para sobreviver, vai fazer de tudo para obtê-lo.
Daí as guerras com tanques e bancos, as quase mil bases militares no estrangeiro, os tentáculos espalhados pelo mundo tentando controlar uma situação muito instável. Somando-se a isso o fato de que as maiores reservas de petróleo estão em países hostis aos EUA (e, claro, essa antipatia é consequência, ao menos em parte, da política externa invasiva dos americanos), a situação torna-se explosiva.
Alguma coisa tem de mudar. Precisamos embarcar numa nova Revolução Industrial. A era dos combustíveis fosseis está acabando.
As companhias petroleiras têm uma excelente oportunidade para mudar sua imagem e tomar a dianteira, sendo os grandes instigadores da mudança. Existe muito dinheiro para ser feito numa economia verde.
À medida que a população mundial cresce, e um número cada vez maior de pessoas entra para a classe média, o apetite por energia só vai aumentar. Com isso, aumentará também o lucro das empresas que produzem e fornecem essa energia.
Uma super-rede, capaz de integrar fontes diferentes (sol, ventos, biomassa) e de transportar essa energia por enormes distâncias, o treinamento de mão de obra especializada, a formação de mais engenheiros e cientistas, a implantação de incentivos fiscais que motivem as pessoas e empresas a adotar tecnologias alternativas - essas são condições necessárias para que a nova revolução tome rumo. Necessárias, mas não suficientes.
As pessoas precisam se convencer disso. Olho para meu filho de quatro anos com um misto de otimismo e desespero. Sonho com um novo mundo, no qual interagimos com a natureza para preservá-la.
Essa guerra é entre nosso passado e nosso futuro. E o fato é que só pode ser lutada no presente.

terça-feira, 22 de junho de 2010

Data histórica: 20/02 de 2002

Quarta-feira, dia 20 de fevereiro de 2002 foi uma data histórica. Durante um minuto, houve uma conjunção de números que somente ocorre duas vezes por milênio.
Data histórica: 20/02 de 2002

Quarta-feira, dia 20 de fevereiro de 2002 foi uma data histórica. Durante um minuto, houve uma conjunção de números que somente ocorre duas vezes por milênio.

Essa conjugação ocorreu exatamente às 20 horas e 02 minutos de 20 de fevereiro do ano 2002, ou seja, 20:02 20/02 2002.

É uma simetria que na matemática é chamada de capicua (algarismos que dão o mesmo número quando lidos da esquerda para a direita, ou vice-versa). A raridade deve-se ao fato de que os três conjuntos de quatro algarismos são iguais (2002) e simétricos em si (20:02, 20/02 e 2002).

A última ocasião em que isso ocorreu foi às 11h11 de 11 de novembro do ano 1111, formando a data 11h11 11/11/1111. A próxima vez será somente às 21h12 de 21 de dezembro de 2112 (21h12 21/12/2112). Provavelmente não estaremos aqui para presenciar. 
Depois, nunca mais haverá outra capicua. Em 30 de março de 3003 não ocorrerá essa coincidência matemática, já que não existe a hora 30.

Essa conjugação ocorreu exatamente às 20 horas e 02 minutos de 20 de fevereiro do ano 2002, ou seja, 20:02 20/02 2002.

É uma simetria que na matemática é chamada de capicua (algarismos que dão o mesmo número quando lidos da esquerda para a direita, ou vice-versa). A raridade deve-se ao fato de que os três conjuntos de quatro algarismos são iguais (2002) e simétricos em si (20:02, 20/02 e 2002).

A última ocasião em que isso ocorreu foi às 11h11 de 11 de novembro do ano 1111, formando a data 11h11 11/11/1111. A próxima vez será somente às 21h12 de 21 de dezembro de 2112 (21h12 21/12/2112). Provavelmente não estaremos aqui para presenciar. 
Depois, nunca mais haverá outra capicua. Em 30 de março de 3003 não ocorrerá essa coincidência matemática, já que não existe a hora 30.                                           

Supercomputador procura ponto fraco da malária

Grupo faz simulações para entender melhor como essa doença se espalha e resiste aos esforços da erradicação
por Larry Greenemeier
© ALEXEY ROMANOV, VIA ISTOCKPHOTO.COM
Velocidade e poder de um supercomputador criam simulações complexas para descobrir como age o mosquito da malária
Compreender os mecanismos da propagação de doenças infecciosas como a malária, que matou cerca de 1 milhão de pessoas no mundo todo em 2008, é um passo crucial para erradicá-las. No entanto, obter uma visão clara de como a malária se propaga e resiste aos esforços de erradicação significa ter acesso a uma quantidade impressionante de dados de uma variedade de fontes – tarefa que requer um supercomputador.

Supercomputadores, antes privilégio de algumas universidades e laboratórios do governo, nos últimos anos tornaram-se mais acessíveis aos pequenos laboratórios de pesquisa. Isso inclui a Intellectual Ventures, em Bellevue, Washington, que está aproveitando a velocidade e o poder de um supercomputador para criar simulações e revelar soluções para problemas complexos, incluindo a propagação da malária.

Segundo a Intellectual Ventures, esse supercomputador é um projeto em andamento compartilhado por duas equipes diferentes de pesquisa, uma no estudo da malária, e o outra no projeto conhecido como TerraPower, que estuda uma tecnologia para um reator nuclear. O projeto de estudo sobre a malária começou a decolar em 2007, após um órgão ligado à Fundação Bill e Melinda Gates, chamado Intellectual Ventures, ter desenvolvido novas tecnologias para combater a malária. Isso gerou a ideia de usar modelos de computadores para simular a propagação da doença no mundo.

O supercomputador tem um software que extrai dados biológicos sobre comportamento e taxas de reprodução dos parasitas Plasmodium vivax e os mosquitos que os carregam, bem como informações sobre os padrões de infecção e resposta imune em humanos. Outros dados incluem locais onde as pessoas vivem ou viajam, fatores ambientais (temperatura, precipitação e altitude), importantes para a transmissão da malária, e os hábitats das diferentes espécies de mosquitos. O software utiliza dados de diversas fontes, incluindo a Organização Mundial de Saúde, Malaria Atlas Project, de universidades e da Nasa para criar modelos de como surtos de malária se propagam.

A Microsoft apresentou recentemente uma iniciativa que irá concentrar-se especificamente na oferta de recursos para computadores de alto desempenho. "A Microsoft Technical Computing Group está trabalhando para levar a supercomputação às massas", diz John-Luke Peck, engenheiro de sistemas da empresa.
Todos os direitos reservados a Scientific American Brasil

quinta-feira, 17 de junho de 2010

Quebras Silenciosas


Rompimento nas placas na crosta terrestre nem sempre resulta em grandes erupções vulcânicas, conclui estudo publicado na "Nature"

Quando placas na crostra terrestre se rompem, isso nem sempre implica a ocorrência de grandes erupções vulcânicas. A conclusão é de um estudo publicado nesta quinta-feira (17/6) na revista "Nature".

A pesquisa explica por que algumas partes do mundo experimentaram erupções de grande porte há milhões de anos, enquanto outras não.

A crosta terrestre é dividida em placas que estão em constante movimento - em períodos de tempo de milhões de anos. As placas ocasionalmente colidem umas com as outras ou se fundem. Também podem quebrar, formando novas.

Quando uma placa tectônica se quebra, uma coluna de rocha derretida pode ser ejetada do interior terrestre, causando uma forte atividade vulcânica na superfície.

Quando a crosta se abriu, promovendo a deriva continental que deu origem às atuais América do Norte e Europa, há cerca de 54 milhões de anos, o processo provocou uma atividade vulcânica intensa no espaço aberto.

Os cientistas estimavam que tal atividade ocorresse apenas nos espaços formados quando os continentes se separam, mas o novo estudo indica que houve pouca atividade vulcânica quando o atual subcontinente indiano se separou do que hoje se conhece por Seicheles, há 63 milhões de anos.

De acordo com pesquisas anteriores, a temperatura do manto abaixo da placa seria a chave para determinar o nível de atividade vulcânica no caso de rompimento. Mas o novo estudo demonstrou que a história anterior da fenda também influencia fortemente se haverá ou não atividade vulcânica.

No caso do rompimento que separou a América do Norte da Europa, uma atividade de grande dimensão ocorreu pela extensão da fenda porque um evento geológico anterior havia deixado a placa mais fina, destaca o novo estudo.

Isso teria fornecido um ponto focal no qual o manto sob a placa se derreteu rapidamente, formando magma que foi ejetado facilmente pela placa fina até a superfície, em grandes explosões.

Em comparação, quando a Índia se separou das Seicheles, pouca atividade vulcânica se fez presente, porque a região havia experimentado um forte vulcanismo em uma área próxima 6 milhões de anos antes. Isso teria esfriado o manto e reduzido o suprimento de magma, deixando muito pouco para quando ocorreu a quebra da placa.

Os pesquisadores realizaram análises nas profundezas do Oceano Índico de modo a determinar o tipo de rochas abaixo do solo oceânico. Descobriram apenas pequenas quantidades de rochas basálticas, que indicam atividade vulcânica anterior.

O grupo também usou novos modelos computacionais, que eles mesmo desenvolveram, para simular o que teria ocorrido no solo oceânico no processo que levou à separação da Índia e das Seicheles.

"Extinção em massa, a formação de novos continentes e mudanças climáticas globais são alguns dos efeitos que podem ocorrer quando as placas se quebram e causam grandes erupções. Nosso estudo ajudará a enxergar com mais clareza os fatores por trás dos eventos que contribuíram para moldar a Terra durante milhões de anos", disse Jenny Collier, do Departamento de Ciência da Terra e Engenharia no Imperial College London, um dos autores do estudo.

Os pesquisadores pretendem explorar as profundezas do Atlântico, de modo a determinar a antiga atividade vulcânica na região que se abriu quando a África se separou da América do Sul.

O artigo "The importance of rift history for volcanic margin formation" (doi:10.1038/nature09063), de John Armitage e outros, pode ser lido por assinantes da "Nature" em www.nature.com


Fonte: Jornal da Ciência

terça-feira, 15 de junho de 2010

Brasil e Alemanha discutem cooperação científica e tecnológica

Em reunião realizada no último dia 31 de maio, em Munique, Alemanha, a Comissão Mista de Ciência, Tecnologia e Inovação Brasil-Alemanha tratou das relações bilaterais no campo da ciência, tecnologia e inovação
A delegação brasileira foi chefiada pelo secretário-geral das Relações Exteriores do Ministério das Relações Exteriores, embaixador Antonio de Aguiar Patriota. Pelo lado alemão, chefiou a delegação o secretário de Estado do Ministério Federal de Educação e Pesquisa, Georg Schütte.

Os chefes das delegações apresentaram uma síntese das políticas nacionais de educação, ciência, tecnologia e inovação, com ênfase na cooperação entre os dois países. Grupos de trabalho estabeleceram prioridades para aquelas áreas.

Na pauta das discussões mais específicas estiveram os projetos relativos ao Ano Brasil-Alemanha da Ciência, Tecnologia e Inovação 2010-2011, aberto em abril último e celebrado até abril do próximo ano, e a implementação de um fundo especial para projetos conjuntos de pesquisa, desenvolvimento e inovação.

Os planos de trabalho a serem adotados no âmbito da reunião assumirão a forma de protocolos de cooperação ou planos de ação conjunta.
(Com informações do portal da Embaixada da Alemanha no Brasil)

Charles Augustin de Coulomb

Charles Augustin de Coulomb
Coulomb é o primeiro cientista que fez grandes contribuições em mecânica dos solos. As obras de pesquisa levando ao conceito do ângulo de atrito, constitui um dos mais importantes fundamentos em geotecnia.
O envelope de Mohr-Coulomb, hipótese de deslizamento entre superfícies, é conhecido por todos os geotécnicos. A partir desta pesquisa, Coulomb desenvolveu métodos para cálculo de estabilidade de taludes através da divisão das massas de solo em cunhas. Coulomb também fez grandes contribuições em cálculo estrutural e eletrônica.
A família tanto por parte do pai quanto da mãe era importante na área legal. De Angoulême, a família mudou-se para Paris e Coulomb ingressou no colégio Mazarin, onde estudou línguas, literatura filosofia e o melhor em matemática, astronomia, química e botânica. Nesta fase houve uma crise para Coulomb. Seu pai realizou especulações financeiras mal sucedidas, perdeu seu dinheiro e os dois mudaram para Montpellier. Já sua mãe permaneceu em Paris. Em Montpellier Coulomb começou estagiar, onde mostrou seus maiores interesses em matemática e astronomia. Posteriormente, em março de 1757 ele ingressou na sociedade de ciências e apresentou diversos trabalhos sobre estes tópicos.
Coulomb queria entrar na Ecole du Génie at Mézières, mas verificou que para ter sucesso necessitaria mais estudo. Então foi para Paris em outubro de 1758, para receber o treinamento necessário. Camus era o examinador para Escolas de Artilharia e foi o seu “curso de matemática” que Coulomb estudou por diversos meses. Em 1758 ele prestou exames feitos por Camus, nos quais foi aprovado, podendo assim entrar na “Escola du Gênie” em fevereiro de 1760.
Coulomb graduou-se em novembro de 1761 no posto de tenente. Por 20 anos ele trabalhou em diversos locais, fazendo projetos estruturais, fortificações e mecânica dos solos. Em fevereiro de 1764, foi transferido para a ilha de Martinique no Oceano Índico.
Sob domínio da França desde 1658, a ilha foi atacada e ocupada por várias frotas estrangeiras. O Tratado de Paris, de 1763, devolveu a Martinique para a França. Uma nova fortaleza era necessário, e Coulomb foi posto no comando da obra. Ele terminou o trabalho em junho de 1772. Durante este período Coulomb adoeceu, ficando com a saúde precária pelo resto da vida.
No seu retorno à França, foi mandado para Bouchain, onde começou a escrever importantes matérias, apresentando a primeira para a Academia de Ciências em Paris, em 1773. Este trabalho (sobre uma aplicação das regras, aos problemas de estática relativa à arquitetura) foi escrito para determinar uma combinação entre matemática e física que permitissem a influência de atrito e coesão em alguns problemas de estática.
O ponto mais importante neste trabalho foi o uso de cálculos de variantes, como escreve Gillmor: “Nestas notas de 1773, há quase um atrapalho pela riqueza”.
Mais tarde ele desenvolveu uma teoria generalizada para mecânica dos solos relativa a planos deslizantes, que permanece em dia até hoje. Talvez a razão pela relativa negligência desta parte do trabalho de Coulomb, seja que ele procurou demonstrar o uso do cálculo differencial na formulação de métodos de aproximação nos problemas fundamentais da mecânica estrutural, em vez das soluções numéricas.
A memória de cálculo foi valorizada pela Academia de Ciências e o levou a ser nomeado suplente de Bossut em 6 de julho de 1774. Coulomb em seguida foi comissionado para Cherbourg, onde ele escreveu seu famoso memorando sobre a bússola, o qual ele submeteu ao Grande Prêmio da Academia de Ciências em 1777. Ele dividiu o primeiro prêmio, e o trabalho continha os primórdios da balança de torção.
“... Sua solução elegante e simples para o problema de torção em cilindros e o uso da balança de torção em aplicações físicas, foram importantes para numerosos físicos nos anos subsequentes ... Coulomb uma teoria de torção em finos fios tecidos de seda e cabelo. Aqui ele foi o primeiro a demonstrar como a torção pode fornecer ao físico um método de medir forças extremamente pequenas.
Também em Cherbourg aconteceu que Robert-Jacques Turgot foi indicado general controlador em 24 de agosto de 1774. Em 1775, Turgot solicitou memorandos com contribuições para uma possível reorganização do “Corps du Génie”.
Coulomb apresentou sugestões e é uma fascinante oportunidade para entender seu pensamento político. Ele desejava que o cidadão e o estado tivessem as mesmas regras. Ele propôs que o “Corps du Génie” e o serviço público em geral deviam reconhecer os talentos de seus membros individualmente, dentro de cada organização.
Em 1779 foi mandado para Rochefort para construir uma nova fortaleza, durante este período, Coulomb desenvolveu suas pesquisas sobre fricção, e escreveu “Teoria das Máquinas Simples”, que lhe concedeu o grande prêmio da Academia de Ciências em 1781. Neste trabalho Coulomb investigou “fricção dinâmica e estática em superfícies deslizantes e fricção no dobramento de cordas e rolamento”.
Na verdade, o trabalho de 1781 mudou a vida de Coulomb. Ele foi eleito para a cadeira de mecânica da Academia de Ciências e mudou-se para Paris, ocupando cargo permanente. Ele nunca mais desenvolveu algo projeto de engenharia, mas escreveu 7 tratados importantes em eletricidade e magnetismo, submetidos a Academia entre 1785 e 1791.
Fonte: www.nilsson.com.br

sexta-feira, 11 de junho de 2010

O planeta que está sendo devorado por seu Sol

Observações do telescópio espacial Hubble parecem confirmar um futuro sombrio para planeta distante consumido por sua estrela-mãe

por John Matson
Nasa, ESA, e G. Bacon (STScI)
Concepção artística da estrela WASP 12 puxando material de seu planeta WASP 12 b

O planeta gigante WASP 12 b, descoberto em 2008, orbita sua estrela a uma distância incômoda de apenas 3,4 milhões de km. (Em comparação, a distância entre a Terra e o Sol é de aproximadamente 150 milhões de km.) Para piorar, a estrela, conhecida como WASP 12, é maior e mais quente do que nosso sol, aquecendo esse planeta em 2.250 graus Celsius. WASP 12 b e sua estrela-mãe, que estão a 870 anos-luz da Terra, foram batizados a partir da pesquisa do projeto SuperWasp (Wide Angle Search for Planets), que mantém telescópios nas Ilhas Canárias, Espanha e África do Sul.

Dia 10 de maio, no Astrophysical Journal Letters, um grupo de pesquisa internacional apresentou observações espectroscópicas do WASP 12 b, indicando que o planeta está cercado por uma nuvem de gás que se estende por cerca de 60 mil km de sua superfície. A exosfera estendida é tão grande e tão próxima do planeta que ele perderá massa rapidamente para sua estrela.

Medições da exosfera forneceram base para elaboração de um modelo teórico inicial sobre a dissipação do planeta. Em estudo publicado na Nature em fevereiro, foi elaborado outro modelo sobre a perda de massa do WASP 12 b, mostrando que ele perde cerca de um décimo milionésimo da sua massa total a cada ano. O peso do WASP 12 b é de algumas vezes a massa de Júpiter, o que significa que, em apenas sete anos, perdeu quantidade de massa equivalente à contida em todos os oceanos da Terra.

Se isso significa que o WASP 12 b será completamente devorado em 10 milhões de anos ainda não está claro. Carole Haswell, astrofísica da Open University, na Inglaterra, e co-autora do novo estudo, admite que a taxa de perda de massa mude com o tempo. Mas, com tantas incertezas sobre o planeta e sua evolução orbital, não se pode ter certeza, acrescenta ela. De qualquer maneira, os autores do artigo da Nature de fevereiro observaram que o planeta pode estar espiralando em direção a sua estrela-mãe nesse mesmo período de tempo.
 
Todos os direitos reservados a Scientific American Brasil

NOTA OFICIAL

Nós, editores do Clave de Pi: Vitor Chagas e Jhonatas Alfradique, pedimos a coompreensão de todos os que acompanham o nosso blog, devido à falta de atualizações que estamos realizando.

Nós estamos em período de vestibular (UERJ), e estamos com o pouco tempo para atualizar o blog. Sabemos que grande parte dos que acompanham o nosso blog são estudante, e conhecem essa situação, por isso pedimos carecidamente que continuem acessando nosso blog, e na medida do possível estaremos postando novas atualizações. O Nosso Vestibular é Domingo(13/06), deseje-nos sorte!

Muito Obrigado!

Clave de Pi!

terça-feira, 8 de junho de 2010

A volta dos misteriosos neutrinos

Artigo de Marcelo Gleiser


 
"Imagine que um sorvete de chocolate se transforme em um de baunilha: há partículas que fazem isso"

Marcelo Gleiser é professor de física teórica no Dartmouth College, em Hanover (EUA). Artigo publicado na "Folha de SP":

Na semana passada, manchetes traziam novas dos fantasmagóricos neutrinos. Desta vez, as notícias vinham do experimento chamado Opera, situado na montanha de Gran Sasso, na Itália. Cientistas anunciaram ter presenciado a mutação de um neutrino do tipo múon em outro do tipo tau. Esta afirmação um tanto misteriosa pode abrir uma nova janela para o Universo.

Neutrinos têm uma história cercada de mistério. Sua existência foi prevista pelo físico Wolfgang Pauli em 1930 para solucionar um grave problema: experimentos com núcleos radioativos que emitiam elétrons pareciam ter energia faltando. E nada é mais sagrado em física do que a lei de conservação de energia.

O italiano Enrico Fermi sugeriu o nome de neutrino, "picollo neutrone", para a nova partícula que, segundo a teoria, não deveria ter carga elétrica ou massa. Devido à ausência de carga e massa, não é nada fácil detectar neutrinos. De fato, foram descobertos apenas em 1956, 26 anos após a previsão de Pauli.

Mas as coisas não eram assim tão simples. Entre a década de 1960 e 2000, mais uma vez neutrinos causavam confusão. A estória começa no coração do Sol, onde neutrinos são produzidos em profusão a cada vez que processos nucleares fundem núcleos de hidrogênio (i.e., prótons) em núcleos de hélio. Nossa estrela-mãe é uma gigantesca fábrica de neutrinos. A cada segundo, cada um de nós é bombardeado por trilhões deles. Há muitos modos de perceber nossa relação com o Sol...

O problema era que experimentos projetados para "contar" os neutrinos vindos do Sol achavam apenas um terço deles. Será que as teorias de como o Sol brilha estavam erradas? Ou eram os experimentos? Ray Davis, físico experimental, insistia que tudo estava certo. John Bahcal, teórico, também não via erros em sua teoria. Com o tempo, ficou claro que os experimentos estavam certos. O problema, outra vez, eram os neutrinos e seu comportamento bizarro.

Imagine que o sabor de seu sorvete possa mudar de morango para baunilha ou chocolate. Os neutrinos são assim. Eles vêm em três "sabores": o neutrino do elétron, o do múon e o do tau. Múons e taus são partículas similares ao elétron, mas mais pesadas. O interessante é que essa metamorfose só pode ocorrer se os neutrinos têm massa!

Portanto, a razão pela qual Davis achou só um terço dos neutrinos é que, do Sol até aqui, os neutrinos do elétron se transformam nos outros dois. Sua descoberta lhe rendeu um Nobel.

Isso remete ao resultado do Opera. Ao observar a metamorfose de um neutrino do múon a um neutrino do tau, físicos confirmaram que eles têm massa. Isso significa que o Modelo Padrão das partículas, repositório de tudo o que sabemos do mundo subatômico, tem de ser modificado: mais uma vez, neutrinos revelaram uma nova física, além da que conhecemos no momento. Resta saber que nova física será esta.

Com frequência na história, novos instrumentos abrem novas janelas para o cosmo, iluminando um pouco da escuridão que nos cerca.

Tal como as pequenas flutuações de energia detectadas quando neutrinos mudam de tipo, cada nova descoberta nos permite ver um pouco além. A ciência é como uma luz nas trevas, como dizia Carl Sagan.

Fonte: Jornal da Ciência

sexta-feira, 4 de junho de 2010

A Música e o Computador

O ponto de encontro entre a Arte e a Tecnologia
Angelino Bozzini

O namoro entre a música e a dupla ciência/tecnologia é muito antigo. Já cinco séculos antes do nascimento de Cristo, o filósofo grego Pitágoras estabelecia as bases físicas e matemáticas do universo sonoro. As descobertas dos séculos seguintes não acrescentaram muito às teorias de Pitágoras; elas tinham caráter eminentemente prático e foram utilizadas basicamente no aperfeiçoamento da construção de instrumentos musicais.

No final do século passado, porém, o físico alemão Hermann Helmholtz revisou as teorias de Pitágoras e fundou as bases da acústica moderna. Destaca-se no seu trabalho a prova científica da existência dos sons harmônicos.

Com o conhecimento decorrente das descobertas de Helmholtz e o desenvolvimento da eletricidade, em 1920 começaram a aparecer os primeiros instrumentos musicais cujo som era produzido eletronicamente. Dentre eles, um dos mais famosos é o "Ondas de Martenot", idealizado pelo compositor francês Maurice Martenot e empregado por vários compositores como Honegger e Messian. Seu som era semelhante ao de um serrote tocado com arco.

Esses instrumentos tiveram seu auge com os órgãos e os sintetizadores eletrônicos, que no princípio buscavam imitar os instrumentos acústicos tradicionais. Com o tempo, os compositores descobriram que podiam criar sons inusitados e mesmo impossíveis de serem produzidos pelos instrumentos convencionais.

Essa evolução deu origem a um capítulo novo na história da música: a música eletrônica. Os instrumentistas olhavam desconfiados para as novidades; muitos compositores acreditavam que nunca mais precisariam da boa vontade dos músicos para dar vida à sua imaginação. Falava-se mesmo que, em pouco tempo, os instrumentistas não seriam mais necessários e que os compositores poderiam ter controle sobre todo o processo.

Isso não era verdade, mas o fato é que os papéis estavam mudando: os compositores tinham mais poder, os músicos precisavam de mais versatilidade. Lá pela década de 40 construiu-se nos Estados Unidos o primeiro computador. Possuía 18.000 válvulas, pesava 30 toneladas, consumia 150.000 W de energia e não era mais potente que uma calculadora de bolso atual. Computadores eram máquinas enormes, caríssimas e utilizadas apenas por governos ricos ou grandes empresas.

Foi na década de 70, com o surgimento dos primeiros microcomputadores, que a música e a informática começaram sua relação. O que faz do computador um instrumento fascinante para o trabalho musical? Para responder a esta pergunta temos primeiro que saber...

O Que é um Computador?

O computador, definido em poucas palavras, é um instrumento complexo capaz de processar informação numérica. Essa definição poderia ser a de uma calculadora; o que torna o computador diferente?

Para o computador esses números não são simples algarismos, mas sim códigos numéricos que podem representar sons, letras, números, imagens, e qualquer tipo de informação que possa ser quantificada. Para poder processar tudo isso é necessário que elas estejam traduzidas para um formato numérico.

Uma vez digitalizada, o computador pode manipular essa informação, reproduzindo, alterando, analisando e reorganizando-a. As possibilidades são praticamente ilimitadas. Pode-se virtualmente criar e transformar qualquer coisa que possa ser imaginada - tudo processando-se dados numéricos.

Mas como transformar o som em números?

O Som Digital

Para se digitalizar um som precisamos em primeiro lugar saber quais parâmetros queremos traduzir. Esses parâmetros são os mesmos que caracterizam qualquer som: duração, intensidade, altura e timbre. Para cada um deles precisamos de uma "régua" que possa medi-los.

Imagine, por exemplo, que você queira digitalizar a intensidade de um som e, para isso, disponha de uma régua com quatro marcas: 1)fraco, 2)médio, 3)forte e 4)fortíssimo. Ao atribuir um código à intensidade de um determinado som, você o compararia com o padrão de sua régua e atribuiria a ele o código que mais se aproximasse.

É importante notar que se um som tiver uma intensidade entre médio e forte você só pode atribuir a ele o código 2 ou 3, pois sua régua não possui valores intermediários. Assim, a qualidade de sua digitalização vai depender da quantidade de valores que a "régua" de seu computador permite registrar.

Isso explica porque as primeiras experiências musicais realizadas com computadores possuiam uma quantidade sonora sofrível. As nuances que o computador permitia registrar estavam muito aquém daquelas existentes no mundo sonoro real.

Hoje em dia, a capacidade de processamento dos computadores aumentou muito e a fidelidade de reprodução chega a enganar muitos ouvidos apurados. A tecnologia descrita acima é a empregada na gravação dos CDs. Neles está gravada em formato numérico a descrição digitalizada de todos os sons que compõem as músicas lá contidas. É uma quantidade enorme de informação!

Mas e os instrumentos eletrônicos, como codificam seus sons?

O Padrão MIDI

Todo mundo sabe que um "Lá" possui, por definição, uma frequência de 440 hz, ou seja, para produzirmos a nota Lá teremos que gerar uma vibração de 440 ciclos por segundo. Como o Lá, todas as notas têm frequência definidas.

Se atribuirmos um código a cada tecla de um sintetizador eletrônico, um código a cada timbre que ele possa produzir, um código para a intensidade, e finalmente produzirmos um pulso (como o de um relógio) e indicarmos quando um som tem de começar e terminar em relação a esse pulso, poderemos fazer uma "receita" de sons que, interpretada por um instrumento que entenda esses códigos, poderá ser reproduzida fielmente.

Qual a vantagem? Simples, os números necessários para descrever as teclas de um piano são muito menores e em menor quantidade do que aqueles necessários para descrever todas as frequências entre 20 e 20.000 hz (faixa de audição do ouvido humano).

Os principais fabricantes de instrumentos eletrônicos resolveram estabelecer um padrão de codificação musical denominado MIDI (Musical Instrumental Digital Interface - interface digital de instrumentos musicais). Assim, se numa receita aparece o código de timbre no 14, todos os instrumentos que respeitam o padrão MIDI sabem que têm que imitar o som de um xilofone e não de um piano, por exemplo. A grande vantagem dos arquivos MIDI é o fato de eles serem pequenos e facilmente editáveis.

Os Editores de Partituras

Outro emprego importante do computador é na editoração musical. Com o auxílio de um editor musical e de um teclado padrão MIDI acoplado ao micro, podemos rapidamente copiar uma partitura com qualidade profissional.

Entre outras, uma das grandes vantagens dos editores musicais é a capacidade de extrair automaticamente as partes individuais de cada instrumento a partir de uma partitura geral.


Mudanças Provocadas pela Informatização da Música

A flexibilidade e versatilidade dos instrumentos eletrônicos associados ao computador fez com que muitos pseudo-músicos se considerassem possuidores de um talento que na verdade não lhes pertencia. A conseqüência disso foi a proliferação de grupos musicais de baixo nível artístico sustentados por uma parafernália eletrônica. Teclados programáveis de última geração tiraram o emprego de muitos bons músicos.

Mas o bom senso ainda existe. Uma prova disso é o fato de que, nos últimos anos, vários verdadeiros artistas que se utilizam de instrumental eletrônico têm gravado discos "acústicos" , na tentativa de resgatarem um som mais natural, numa relação mais íntima entre músico e som. Esta é também uma forma, talvez inconsciente, de mostrarem que são músicos, independentemente do tipo de instrumento que utilizem.

O Que o Futuro nos Reserva...

Os progressos gerados pela informatização da música são em sua maioria positivos e irreversíveis. Na educação musical, por exemplo, os alunos encontram no computador um professor capaz e paciente. Os estudantes de composição podem ter uma idéia muito clara do que sua imaginação e trabalho intelectual são capazes de produzir. Obras de referência ganham sons, imagem e animação. Através da Internet podemos chegar virtualmente a qualquer canto do mundo, conhecer sua música e trocar idéias com músicos locais.

Pode-se prever que em pouco tempo - desde que se resolvam os problemas econômicos e sociais, é claro - teremos rompido todas as barreiras que hoje nos separam do conhecimento e da concretização daquilo que somos capazes de imaginar.

O importante é não perdermos a dimensão humana daquilo que fazemos e lembrarmos que a música serve à expressão do que somos como seres humanos.

Fonte: http://www.weril.com.br/

Isótopos de minerais podem revelar se dinossauros tinham sangue frio ou quente

Novo método permite descobrir a temperatura interna do corpo de animais mortos há muito tempo


por Katherine Harmon
O apavorante e enorme Tyrannosaurus rex tem uma reputação de matar suas vítimas a sangue-frio. Mas será que esse dinossauro era ectotérmico (tinha sangue frio)?

Em função dos fortes laços evolutivos entre répteis (ectotérmicos) e aves (endotérmicos), torna-se difícil saber se os dinossauros também não eram capazes de regular a própria temperatura corporal interna.

Um novo método de estudar as ligações químicas de um mineral encontrado nos dentes e ossos desses animais pode finalmente oferecer uma maneira de resolver essa dúvida.

Pesquisadores descobriram isótopos pesados de carbono e oxigênio se ligam de forma diferente na versão biológica do mineral apatita (componente principal dos ossos e dentes de animais, vivos ou extintos). “Esses isótopos raros são propensos a se unir em grupos a baixas temperaturas; portanto, se medirmos a aglutinação com precisão suficiente, é possível descobrir em qual temperatura o mineral foi precipitado", explica Robert Eagle, pesquisador de pós-doutorado em geoquímica no California Institute of Technology e principal autor do novo estudo, publicado on-line no dia 24 de maio no Proceedings of National Academy of Sciences.

Uma maneira similar de examinar conchas ajudou os pesquisadores a estimar temperaturas, observado as ligações nas estruturas do carbonato de um cálcio.

"A maioria das pessoas utilizava esse método para observar as alterações climáticas ocorridas no passado e diversos problemas geológicos, como o aquecimento e resfriamento da crosta terrestre", diz Eagle. Mas a abordagem de John Eiler, professor de geologia e geoquímica no Caltech e co-autor do estudo, defende que a mesma análise pode ser aplicada à apatita remanescente nos dentes ou ossos fossilizados.

Eagle e seus colegas testaram o método em uma variedade de seres endotérmicos vivos e extintos, incluindo um dente de um elefante indiano moderno (Elephas maximus indicus), um dente de um rinoceronte branco moderno (Ceratotherium simum) e alguns dentes de mamutes extintos no final do Pleistoceno (Mammuthus primigenius). Sua análise obteve uma precisão de 1 a 2 graus Celsius para os animais modernos, conferindo uma aproximação de alta precisão para os animais que morreram milhões de anos atrás.

Descobrir se o T. rex era um animal ectotérmico não é apenas um uma forma de saciar a curiosidade, mas também de lançar uma luz sobre a forma de regulação de temperatura interna desses animais, que, como os autores do novo estudo observaram, "é um dos aspectos fundamentais para entender a biologia deles. O surgimento de animais endotérmicos foi uma grande mudança fisiológica ocorrida em uma fase desconhecida durante a transição evolutiva dos mamíferos e das aves”.

Como parte do estudo, o grupo também realizou testes com dentes de crocodilo-do-nilo (Crocodylus niloticus), dentes de jacarés americanos (Alligator mississippienis) e com esmalte das espécies do Mioceno. Comparando os endotérmicos extintos do Mioceno com animais ectotérmicos do mesmo período, os pesquisadores encontram uma diferença de 6 graus Celsius, revelando uma diferença mensurável entre mamíferos e animais ectotérmicos.

Outras estimativas para os climas antigos foram baseadas em fósseis de plantas”, observa Eagle. “Todos os dados são, de certa forma, incertos já que são influenciados por outros fatores.”

Todos os direitos Reservado a Scientific of America Brasil.