terça-feira, 23 de agosto de 2011

A fonte definitiva de energia

Em busca de uma alternativa para a matriz energética mundial, muitos cientistas acreditam que só a energia das estrelas pode representar um passo decisivo para a humanidade.
ilustração de um reator de fusão nuclear
© RSC (ilustração de um reator de fusão nuclear)
Às voltas com a sujeira e os riscos causados pela fissão nuclear, ainda debatendo se os biocombustíveis valem a pena ou não, o mundo se vê às voltas com uma matriz essencialmente baseada no petróleo e seus parentes próximos, o carvão e o gás natural.
Para achar uma saída desse beco, as duas únicas tecnologias com potencial disruptivo são a fotossíntese artificial e a fusão nuclear.
Os experimentos com folhas artificiais estão apenas começando. Mas o homem sonha em domar a fusão nuclear desde que Hans Bethe explicou de onde as estrelas tiravam tanta energia.
A primeira tentativa de produzir a fusão nuclear na Terra não é de boa lembrança: em 1º de Novembro de 1952, os Estados Unidos usaram uma bomba similar à usada em Hiroshima apenas para dar a ignição na primeira bomba de hidrogênio. Funcionou, mas a coisa se mostrou tão perigosamente descontrolada que o projeto foi deixado de lado.
O recorde mundial de fusão nuclear hoje pertence ao reator tokamak do JET (Joint European Torus), no Reino Unido. Com 15 metros de diâmetro e 12 metros de altura, ele consumiu 20 MW (megawatts) para produzir 16 MW - mas a fusão nuclear se sustentou por menos de 10 segundos.
Hoje, todos os esforços para bater esse recorde e gerar energia são pacíficos - ao menos os que se conhece. E os projetos de fusão nuclear não são mais exclusividade dos governos e suas universidades: já há empresas privadas trabalhando na área.
ITER
O maior desses esforços é o ITER, sigla em inglês de Reator Internacional Termonuclear Experimental, que começou a ser erguido em Cadarache, na França.
Com um investimento planejado de US$21 bilhões, o projeto pretende consumir 50 MW de energia para dar partida em uma produção de 500 MW. Em 2027, se tudo der certo.
O problema é que ninguém sabe se vai dar certo. Muitos físicos dizem que não vai funcionar. Outros afirmam que o ITER funcionará como um excelente laboratório de física, mas nunca será uma usina de geração de energia eficiente.
O ITER usará um reator do tipo tokamak, que usa um gigantesco campo magnético para confinar um plasma que deverá atingir uma temperatura de 45 milhões de graus Celsius para dar partida na fusão de deutério-trítio.
Se funcionar, um quilograma (kg) de combustível de fusão vai gerar tanta energia quanto 10 milhões de kg de carvão.
Outro experimento já atingiu 25 milhões de graus Celsius, ainda abaixo do ponto de partida da fusão. Mas os projetistas do ITER confiam em seus 18 gigantescos ímãs supercondutores, cada um pesando 360 toneladas, para confinar uma quantidade de plasma suficiente para chegar lá.
Ignitor
O Ignitor é um projeto conjunto entre a Itália e a Rússia, bem menos ambicioso que o ITER.
O Ignitor será na verdade uma versão ampliada do Alcator C-Mod, desenvolvido pela equipe do professor Bruno Coppi, do MIT.
O reator, que está sendo erguido nas proximidades de Moscou, terá aproximadamente o dobro do tamanho do Alcator, com uma câmara principal em forma de anel com 1,3 metro de diâmetro - a câmara do ITER terá 6,2 metros de diâmetro.
O Alcator não nasceu para gerar energia, mas como um laboratório para estudar as estrelas.
Ao longo dos anos, os cientistas foram aprimorando seus detalhes técnicos, a ponto de atingirem um estágio no qual eles acreditam ser viável usar a tecnologia para produzir temperaturas suficientes para iniciar a fusão nuclear.
Como estão trabalhando em uma área desconhecida, os cientistas parecem mais interessados em trocar experiências do que em competir. Evgeny Velikhov, responsável pelo lado russo do projeto, também é membro do conselho do ITER.
Mas o Dr. Coppi diz que, mesmo que o Ignitor nunca gere mais energia do que consumir, ainda assim a astrofísica terá muito a ganhar com o experimento.
Sterellator
Stellarator
© Max Planck Institute (Stellarator)
O tokamak não é o único caminho para tentar domar a fusão nuclear.
O projeto Wendelstein 7-X, do Instituto Max Planck, da Alemanha, está construindo um reator de fusão do tipo stellarator - ele será o maior do mundo desse tipo.
Um tokamak é alimentado por uma corrente de plasma. Essa corrente fornece uma parte do campo magnético responsável por isolar o próprio plasma das paredes do reator. O grande problema é evitar as "disrupções", as instabilidades do plasma circulante pelo torus.
Um reator do tipo stellarator não tem corrente, eliminando de pronto o problema das instabilidades do plasma. Esse tipo de reator tem um desenho esquisito, mas também tem seus próprios problemas, como uma tendência a perder energia.
Cada stellarator foge à sua própria maneira do tipo "clássico", fazendo modificações e otimizações que tentam coibir os defeitos o obter um funcionamento contínuo.
O Wendelstein 7-X terá 50 bobinas supercondutoras, medindo 3,5 metros de altura cada uma, para gerar o campo magnético primário. Para completar o sistema de contenção do plasma será usada uma camada adicional com 20 bobinas planares, colocadas sobre as primeiras, que terão o papel adicional de permitir o controle da intensidade do campo magnético.
O conjunto todo é contido dentro de uma estrutura de 16 metros de diâmetro. Uma usina de refrigeração fornecerá 5.000 Watts de hélio líquido para manter a supercondução dos fios que formam as bobinas.
O Wendelstein 7-X será um reator de pesquisa, sem intenção de produzir energia. Na verdade, a intenção é demonstrar a viabilidade da construção de uma usina de fusão nuclear usando um reator do tipo stellarator. Se tudo ocorrer segundo o cronograma, o reator deverá entrar em funcionamento em 2014.
Fusão nuclear com laser
O projeto europeu Hiper (sigla em inglês de Pesquisa de Energia Laser de Alta Potência) pretende atingir as altas temperaturas necessárias para iniciar a fusão nuclear usando um equipamento de raio laser do tamanho de um estádio de futebol.
Um laser de alta potência vai comprimir átomos de hidrogênio para conseguir uma densidade 30 vezes maior do que a do chumbo.
Um segundo laser vai aumentar a temperatura do hidrogênio comprimido acima dos 100 mihões de graus Celsius.
Nessas condições, os núcleos do hidrogênio deverão se fundir para formar hélio.
Iniciado em 2008, o Hiper é financiado pela Comissão Europeia e envolve 26 instituições de dez países.
Motor de fusão
Os cientistas da empresa privada Helion Energy são bem mais comedidos do que seus parceiros institucionais.
Seu reator de fusão nuclear é um equipamento cilíndrico de 16 metros de comprimento e pouco mais de um metro de diâmetro.
Chamado de "motor de fusão", o reator não usará supermagnetos supercondutores mantidos em temperaturas criogênicas: ele usará um processo conhecido como configuração de campo reverso.
Em vez de confinar o plasma em uma estrutura toroidal, como no tokamak, o motor de fusão vai acelerar duas pequenas bolas de plasma uma em direção à outra.
Manter o plasma isolado em um aparato linear é muito mais simples do que o formato toroidal, exigindo um campo magnético menos intenso e mais fácil de controlar. É por isso que o reator é tão menor do que seus concorrentes.
Se os cálculos estiverem corretos, a colisão deverá gerar calor suficiente para fundir os núcleos dos átomos, aquecê-los e iniciar a fusão de forma sustentada.
Como a fusão ocorre em um ponto determinado no espaço é mais fácil também recolher os nêutrons gerados. Os nêutrons são essenciais para gerar o combustível da fusão.
E, se eles escaparem, podem tornar radioativas as peças metálicas do equipamento com as quais entrarem em contato - isso acontecerá no ITER, que deverá trocar as partes internas do seu reator periodicamente.
O protótipo do motor de fusão atingiu uma temperatura de 25 milhões de graus Celsius, bem abaixo do necessário. Mas os cientistas calculam que a temperatura necessária será alcançada com um equipamento apenas três vezes maior.
A NASA e o Departamento de Defesa dos Estados Unidos já investiram US$5 milhões na empresa, que agora está procurando parceiros privados para levantar mais US$20 milhões, necessários para construir a versão final do seu motor de fusão.
Fusão geral
A empresa canadense General Fusion está usando uma outra abordagem para tentar obter a fusão nuclear sustentada.
A técnica chama-se fusão de plasma magnetizado e consiste em iniciar a fusão em um plasma comprimido de forma intensa e rápida no interior de uma esfera giratória de metal líquido.
O reator funciona em ciclos sequenciais, com cada compressão do plasma magnetizado produzindo um "disparo" de energia gerada pela fusão.
São quatro ciclos: criação do plasma de deutério e trítio, aprisionamento do plasma em um campo magnético, compressão do plasma magnetizado, gerando a fusão e, finalmente, captura do calor gerado pela fusão para uso em uma usina termoelétrica.
Os resultados ainda são modestos: segundo a empresa, o aparato produziu uma temperatura de 5 milhões de graus Celsius durante 1 microssegundo.
Mas a General Fusion tem mais dinheiro para construir versões maiores do seu reator: os US$30 milhões foram levantados entre investidores privados, entre os quais Jeff Bezos, da Amazon.
Fusão secreta
Há uma outra empresa privada na área, chamada Tri Alpha Energy, que não gosta de aparecer e nem divulga seus projetos, mas que aparentemente está usando um conceito criado pelos físicos Norman Rostoker e Hendrik Monkhorst.
A ideia é misturar hidrogênio e boro-11 em um plasma de alta temperatura para gerar a fusão.
O processo de confinamento usa a mesma configuração de campo reverso, mas aparentemente mantendo toda a energia de entrada dentro do reator - os elétrons do combustível seriam confinados eletrostaticamente e os íons seriam aprisionados magneticamente.
Os pesquisadores acreditam que, com o calor e a densidade adequadas, esses íons vão se fundir para liberar energia.
Recentemente circularam boatos de que a empresa teria levantado US$90 milhões, tendo entre seus investidores Paul Allen, cofundador da Microsoft. Mas as empresas de capital de risco apontadas nos boatos não listam a empresa em sua carteira de investimentos.
Em um artigo científico publicado em 2010, seus cientistas afirmam ter alcançado uma temperatura de 5 milhões de graus Celsius durante 2 milissegundos.
Já houve vários boatos sobre a iminência de um teste "no ano que vem", que ainda não aconteceu. Os mais otimistas opinam que uma versão comercial do reator Rostoker/Monkhorst - capaz de produzir mais energia do que consome - não sairá antes de 2020.
Fusão nuclear a frio
Há também propostas mais controversas para a fusão nuclear, embora não voltadas especificamente para a produção de energia.
A principal delas é a chamada fusão nuclear a frio, ou fusão de baixa energia, que mostra os indícios da fusão por meio dos nêutrons gerados no processo - pouquíssimos nêutrons, em comparação com os experimentos que pensam em gerar energia.
A ideia surgiu em 1989, quando Martin Fleishmann e Stanley Pons afirmaram ter verificado a fusão nuclear em uma célula eletrolítica. Mas nenhum outro grupo conseguiu reproduzir o experimento.
A esperança renasceu em 2009, quando Pamela Mosier-Boss e sua equipe modificaram ligeiramente a célula eletrolítica de Fleishmann e Pons e tiveram resultados animadores, ainda que frágeis demais para qualquer uso prático.
Mas a fusão nuclear a frio só voltou a ser levada a sério em 2010, quando a Sociedade Americana de Química promoveu um evento de dois dias exclusivamente para discutir o assunto. Desde o fiasco inicial, quem se atrevia a pesquisar na área preferia trabalhar em silêncio.
Foram mais 50 apresentações de experimentos que apresentaram resultados significativos, suficientes para colocar o assunto em pauta novamente. Mas ninguém sonha em usar a fusão a frio para geração de energia.
Fusão por cavitação
Pelo menos três grupos se envolveram em uma pretensa fusão nuclear em um equipamento de mesa, desde que Rusi Taleyarkhan e seus colegas do Laboratório Nacional Oak Ridge afirmaram ter conseguido iniciar a fusão pelo colapso de microbolhas.
Seth Putterman, da Universidade da Califórnia, fez uma demonstração semelhante em 2005, mas usando o aquecimento de um cristal em um ambiente de deutério. A produção de nêutrons, contudo, foi muito pequena, e os cientistas nunca chegaram a afirmar que a técnica seria útil para a geração de energia.
No mesmo ano, uma equipe da Universidade Purdue afirmou ter confirmado o experimento de Taleyarkhan, baseado na cavitação de microbolhas.
Contudo, depois da contestação de outros cientistas, a Universidade fez uma sindicância e concluiu que Yiban Xu e Adam Butt haviam falseado os resultados.
Fonte: Inovação Tecnológica

quinta-feira, 18 de agosto de 2011

Esfera em dois lugares ao mesmo tempo

Cientistas estão planejando colocar uma esfera em dois lugares ao mesmo tempo.
esfera
© Revista Física (esfera com dois estados quânticos)
A ideia é trazer para o mundo macro os fenômenos estranhos da mecânica quântica.
Desde que o mundo quântico comunicou-se com o mundo macro pela primeira vez os cientistas sabem que a mecânica quântica também pode influir no movimento de objetos macroscópicos.
Mas o objetivo agora é mais ambicioso: usar uma esfera "grande" para demonstrar o fenômeno da superposição, que permite que um objeto tenha mais de um estado ao mesmo tempo.
Será que os objetos grandes podem seguir as leis quânticas como a suposição de Erwin Schrödinger no experimento mental que mostra que um gato poderia existir em uma superposição de estar vivo e morto ao mesmo tempo?
A ideia agora é atingir uma esfera de vidro de 40 nanômetros de diâmetro, localizada dentro de uma pequena cavidade, com um laser.
Isso deverá forçar a esfera a saltar de um lado da cavidade para o outro.
Mas, como a luz é quântica por natureza, a posição da esfera também deverá ser, o que a obrigará a ficar em uma superposição quântica, concatenando-se com os fótons que a atingem.
O experimento terá de ser realizado em alto vácuo e em temperaturas extremamente baixas, para que a esfera não seja perturbada pelo ruído térmico ou pelas moléculas de ar, contou Oriol Romero-Isart, do Instituto Max Planck de Óptica Quântica, na Alemanha, um dos idealizadores do experimento.
No ano passado, Aaron O'Connell e seus colegas da Universidade da Califórnia, nos Estados Unidos, demonstrou que é possível criar superposições em uma tira de metal de 60 micrômetros de comprimento.
No entanto, a separação física associada com os dois diferentes estados superpostos foi de apenas 1 femtometro (10-15 metro), equivalente à largura do núcleo de um átomo.
A nova experiência, por sua vez, pretende colocar a esfera de vidro em dois lugares totalmente distintos ao mesmo tempo, sem sobreposição.
"Em nossa proposta, o centro de massa é colocado em uma superposição de localizações espaciais separadas por uma distância maior do que o tamanho do objeto", diz Romero-Isart.
Se der certo, será a primeira vez que a superposição será demonstrada em um objeto verdadeiramente macroscópico - embora uma esfera de 40 nanômetros não possa ser vista a olho nu, ela contém milhões de átomos, sendo maior do que um vírus.
Além do experimento com sobreposição de O'Connell, o máximo que se chegou até hoje em experimentos de superposição quântica foi em uma molécula chamada fulereno, com menos de 100 átomos.
Os cientistas afirmam que o experimento, ainda sem data marcada, deverá ser um teste valioso para a própria teoria da mecânica quântica.
Observar o comportamento de tais objetos muito grandes obedecendo as leis quânticas pode ser a melhor chance de descobrir onde é que a mecânica quântica deixa de funcionar e começa a vigorar a mecânica clássica.
Fonte: New Scientist

terça-feira, 16 de agosto de 2011

Evolução da matéria após Big Bang

Algumas das perguntas mais intrigantes em foco da física básica são sobre neutrinos.
detector experimental de neutrinos Daya Bay
© Berkeley Lab (detector experimental de neutrinos Daya Bay)
Os neutrinos são partículas muito difíceis de serem detectadas por terem carga neutra, uma massa extremamente pequena e pouca interação com a matéria. Sua existência foi comprovada há cerca de 60 anos e, desde então, já se descobriu que existem três tipos de neutrinos, além de suas respectivas antipartículas.
Quanto pesam os diferentes tipos de neutrinos e qual é o mais pesado?
As respostas estão na forma como os três tipos de neutrinos - elétron, múon e tau - oscilam ou misturam-se no espaço. Para saber mais sobre os neutrinos, o detector experimental Daya Bay foi criado.
"Os resultados obtidos serão uma contribuição importante para a compreensão do papel dos neutrinos na evolução dos tipos básicos da matéria nos primeiros momentos após o Big Bang", explica Kam-Biu Luk, um professor de física da Universidade da Califórnia, em Berkeley, envolvido no projeto.
Os primeiros dados coletados deste detector mostram uma precisão maior que as medidas de outros experimentos em andamento.
O Daya Bay deu início a obtenção de dados para estabelecer um parâmetro que é fundamental na física de partículas, mas até agora não foi medido com precisão. Para medir a amplitude de oscilação dos neutrinos e chegar a este parâmetro serão necessários de dois a três anos de coleta de dados, com todos os seus oito detectores.
China e Estados Unidos lideram a colaboração internacional do Daya Bay, que inclui participação da Rússia, República Tcheca, Hong Kong e Taiwan. O experimento tem contribuições intelectuais de mais de 40 instituições de países do mundo todo.
Os neutrinos serão coletados por oito grandes detectores enterrados na parte subterrânea das montanhas adjacentes aos seis reatores nucleares de um grupo nuclear no sul da China, próximo a Hong Kong. Os reatores nucleares produzem enormes quantidades de antineutrinos, que são identificados por seus flashes.
Fonte: Berkeley Lab

terça-feira, 26 de julho de 2011

Fótons não ultrapassam velocidade da luz

Uma equipe de físicos da Universidade de Hong Kong afirma ter conseguido uma medição direta do precursor óptico de um único fóton, demonstrando que fótons individuais não podem viajar mais rápido do que a luz no vácuo.
relógio do tempo
© Revista Física (relógio do tempo)
O estudo reafirma a teoria de Einstein de que nada viaja mais rápido do que a velocidade máxima da luz e fecha um debate de uma década sobre a velocidade de um fóton individual.
Mas esta é a primeira demonstração experimental de que os chamados precursores ópticos - a frente de onda da luz, sua porção que viaja mais rapidamente - existem ao nível dos fótons individuais e que eles são, como se previa, a parte mais rápida do pacote de onda, mesmo em um meio superluminal.
Ou seja, o precursor óptico pode realmente atingir a velocidade máxima da luz c, que vale de 299.792.458 m/s.
"Os resultados ampliam nosso entendimento de como um fóton individual se move. Eles também confirmam o limite máximo de velocidade que uma informação pode ser transportada com luz," afirmou Dr. Shengwang Du, coordenador do estudo.
"Ao mostrar que os fótons individuais não podem viajar mais rápido do que a velocidade da luz, nossos resultados encerram o debate sobre a verdadeira velocidade da informação transportada por um único fóton. Nossas conclusões também poderão dar aos cientistas um quadro melhor sobre a transmissão da informação quântica," completou.
Porém, há cerca de 10 anos, a descoberta de uma propagação superluminal - acima da velocidade da luz - causou sensação ao levantar a possibilidade da viagem no tempo. Mas só até que a diferença entre a velocidade de fase e a velocidade de grupo fosse devidamente explicada.
O que ocorre é que a propagação daqueles pulsos ópticos em alguns meios específicos era apenas um efeito visual - a velocidade superluminal de um grupo de fótons não poderia ser usada para transmitir qualquer informação real.
As esperanças foram então para os fótons individuais, porque a partícula quântica fóton parece poder viajar mais rápido do que o limite da velocidade da luz no mundo clássico.
A conclusão do Dr. Shengwang Du é que os fótons individuais obedecem às regras da relatividade, confirmando a causalidade de Einstein, ou seja, que um efeito não pode ocorrer antes de sua causa. Portanto, elimina a possibilidade teórica da viagem no tempo que havia sido levantada com base na velocidade superluminal.
Isto não significa, porém, que o experimento "provou que a viagem no tempo é impossível" - ele demonstra que não é possível viajar no tempo superando o limite de velocidade do Universo com uma nave para fazer o tempo encolher.
A teoria da relatividade continua aceitando a possibilidade de uma dobradura no contínuo do espaço-tempo para chegar aonde você já esteve antes, bastando ter uma massa suficiente, e controlável, para sua realização.
Fonte: Physical Review Letters

domingo, 24 de julho de 2011

Descoberta nova partícula no Fermilab

Físicos do acelerador de partículas Fermilab confirmaram a observação de uma partícula inteiramente nova, o bárion Xi-sub-b (Ξb0).
bárions no modelo de quarks
© Fermilab (bárions no modelo de quarks)
Os bárions são partículas formadas de 3 quarks, em diferentes configurações. O próton é um bárion que consiste de dois quaks up e um quark down, e o nêutron é formado por dois quarks down e um up. A Xi-sub-b tem um quark up, um quark strange e um quark heavy bottom, significando seu peso está em torno de seis vezes o peso de um próton ou um nêutron.
A existência dessa partícula já havia sido prevista algumas vezes, mas ela ainda não havia sido observada. Ela não dura muito tempo, viajando uma fração de milímetro antes de decair em partículas mais leves.
No Fermilab durante as colisões sã geradas quase que 500 trilhões de conjuntos de partículas, assim, os pesquisadores foram capazes de verificar a existência dela múltiplas vezes. A Xi-sub-b foi registrada 25 vezes.
O Tevatron do Fermilab, onde a Xi-sub-b foi descoberta, fica baseado em Illinois nos EUA, era também o maior acelerador de partículas do mundo até a construção do LHC.
geração da nova partícula Xi-sub-b
© Fermilab (geração da nova partícula Xi-sub-b)
Experimentos no Tevatron possibilitaram descobrir os bárions Sigma-sub-b (Σb and Σb*) em 2006, observar o baryon Xi-b-menos (Ξb-) em 2007, e encontrar o Omega-sub-b (Ωb-) em 2009. O bárion Lambda-sub-b (Λb), foi descoberto no CERN.
Medir as propriedades de todas essas partículas permite aos cientistas testar e melhorar os modelos de como os quarks interagem em distâncias próximas através da força nuclear forte, como explicado pela teoria da cromodinâmica quântica (QCD).
Fonte: Fermilab

segunda-feira, 18 de julho de 2011

Rotação de galáxia pode explicar o enigma da antimatéria

Um físico da Universidade de Warwick, no Reino Unido, produziu uma solução de dimensões galácticas para explicar o enigma do "desaparecimento" da antimatéria que deve ter sido criada no surgimento do nosso Universo.
torção espacial devido rotação de galáxia
© University of Warwick (torção espacial devido rotação de galáxia)
Recentemente, observações experimentais de partículas conhecidas como káons e mésons B revelaram diferenças significativas na forma como a matéria e a antimatéria decaem.
Esta "violação da paridade de carga", ou "violação de CP", é uma anomalia inconveniente para alguns pesquisadores, mas é um fenômeno útil para outros, já que pode abrir o caminho para uma explicação de por que mais matéria do que antimatéria parece ter sobrevivido na criação do nosso Universo.
Agora, o Dr. Mark Hadley, acredita ter encontrado uma explicação testável para a aparente violação da paridade de carga, uma explicação que não apenas preserva a paridade, mas também torna a violação da paridade de carga uma explicação ainda mais plausível para a divisão entre matéria e antimatéria.
Segundo os pontos de vista aceitos na física de partículas, a natureza é fundamentalmente assimétrica. Existe uma clara assimetria da esquerda para a direita nas interações fracas e uma violação de CP bem menor em sistemas Káon, que têm sido medidos, mas nunca explicados.
Esta pesquisa sugere que os resultados experimentais em nossos laboratórios são uma consequência da rotação galáctica torcendo nosso espaço-tempo local. Se isso se mostrar correto, então a natureza seria, afinal de contas, fundamentalmente simétrica.
Parece ser fácil negligenciar o efeito de algo tão grande quanto uma galáxia, porque o que parece mais óbvio para nós é o campo gravitacional local da Terra ou do Sol, sendo ambos muito mais facilmente perceptíveis do que o efeito gravitacional que nossa galáxia como um todo exerce sobre nós.
No entanto, o Dr. Hadley acredita que o que é mais importante neste caso é um efeito gerado pelo giro de tal corpo tão maciço.
A velocidade e o momento angular do giro de um corpo tão maciço quanto nossa galáxia cria um "arrastamento" sobre o espaço e o tempo locais, torcendo o formato desse tempo-espaço e criando efeitos de dilatação do tempo.
A rotação da nossa galáxia tem um efeito de torção no nosso espaço local que é um milhão de vezes mais forte do que a causada pela rotação da Terra.
Quando a violação de CP foi observada no decaimento dos mésons B, a diferença fundamental observada entre a dissolução das versões de matéria e de antimatéria da mesma partícula é uma variação nas diferentes taxas de decaimento.
Curiosamente, embora os pesquisadores observem essa larga variação no padrão das taxas de decaimento, quando as taxas de decaimento individuais são somadas elas aumentam o total tanto para as versões de matéria quanto de antimatéria da mesma partícula. O efeito de arrastamento de toda a galáxia sobre o espaço-tempo local pode ser a explicação para essas observações.
As versões de matéria e antimatéria da mesma partícula vão manter exatamente a mesma estrutura, exceto quando elas forem imagens espelhadas umas das outras. Não é sem sentido esperar que o decaimento dessas partículas também comece como uma imagem espelhada exata uma da outra.
No entanto, não é assim que ele termina. O decaimento pode começar como uma imagem espelhada exata, mas o efeito de arrastamento induzido pela rotação da galáxia é significativo o suficiente para fazer com que as diferentes estruturas em cada partícula experimentem diferentes níveis de dilatação do tempo e, portanto, decaiam de formas diferentes.
A variação geral dos diferentes níveis de dilatação do tempo, contudo, fica na média quando cada partícula no decaimento é levada em conta - a violação de CP desaparece e a paridade é conservada.
A beleza desta teoria é que ela também pode ser testada: há previsões que podem ser feitas feitas a partir da teoria e testadas experimentalmente.
A enorme variedade de dados que já existe, que mostram a aparente violação de CP em alguns decaimentos, pode ser analisada para ver se há um padrão que está alinhado com a rotação da galáxia.
O artigo do Dr. Hadley somente trata de como o arrastamento do espaço-tempo em escala galáctica poderia explicar as observações experimentais da aparente violação de CP.
Entretanto, a explicação também deixa aberta a porta para aqueles teóricos que acreditam que a violação de CP seria uma ferramenta útil para explicar a separação entre matéria e antimatéria no nascimento do nosso Universo, e o subsequente predomínio aparente da matéria.
As estruturas primitivas do Universo podem ter tido massa e giro suficientes para gerar efeitos de arrastamento que poderiam ter tido um efeito significativo na distribuição da matéria e da antimatéria.
Fonte: Europhysics Letters

quinta-feira, 14 de julho de 2011

Gelo pode ficar fluido abaixo de -130°C

Quando a água é resfriada abaixo de zero grau, ela cristaliza, formando gelo, em condições normais de temperatura e pressão.
água no estado sólido e líquido
© Revista Física (água no estado sólido e líquido)
O físico sueco Ove Andersson, da Universidade de Umea, afirma ter conseguido pela primeira vez produzir uma água que flui lentamente a 130 graus abaixo de zero. Ele fez o experimento submetendo a água congelada a uma pressão 10.000 vezes maior do que a pressão atmosférica normal.
"A descoberta é também interessante na medida que nos ajuda a compreender as muitas propriedades anormais da água. Por exemplo, foi previsto que a água teria duas diferentes fases líquidas em baixas temperaturas. A descoberta confirma a existência de uma dessas duas fases," explica Andersson.
Recentemente foi descoberta uma nova fase quântica da água, mas essas "propriedades anormais" a que o pesquisador se refere estão longe de serem totalmente compreendidas.
O experimento foi feito expondo gelo cristalino comum, no qual os átomos estão dispostos de forma ordenada, a pressões crescentes em temperaturas abaixo de -130ºC.
A ordem das moléculas colapsou e o gelo se transformou em gelo amorfo, com uma disposição aleatória das moléculas de água.
"Quando eu então elevei a temperatura, o gelo transformou-se em água de fluidez lenta. Essa água é como a água comum, mas sua densidade é 35 por cento maior, e as moléculas de água se movem relativamente devagar, ou seja, a viscosidade é alta," explica o pesquisador.
A água tem algumas propriedades anômalas, como por exemplo, na água congelada, cuja temperatura está abaixo de zero, sua densidade diminui quando a temperatura decresce e aumenta quando a temperatura se eleva.
"Há desvios que são conhecidos há muitos anos, e eles são muito importantes. Contudo, não há nenhuma explicação geral para eles, mas a resposta pode estar na forma como as propriedades da água são afetadas quando ela é exposta a altas pressões," defende Andersson.
Teorias preveem que a água exista em duas diferentes fases líquidas, uma com baixa densidade e outra com alta densidade, com a transição entre as fases ocorrendo a baixas temperaturas e altas pressões.
Quando a água esfria e se aproxima dessa zona de transição, pode haver uma transformação gradual que afeta as propriedades da água.
Infelizmente, esta transformação é difícil de estudar, pois a água normalmente cristaliza. Uma forma alternativa de estudar essa zona é primeiro criar o gelo amorfo.
As novas descobertas mostram que o gelo amorfo provavelmente se converte em água de alta viscosidade quando é aquecido sob alta pressão.
É possível que essa água fria e de fluidez lenta exista em corpos celestes de grande massa.
Fonte: ScienceDaily

segunda-feira, 4 de julho de 2011

Esqueleto da turbulência

Embora a turbulência seja um fenômeno que se caracteriza pela movimentação caótica das partículas de um fluido, existem técnicas capazes de identificar estruturas coerentes, permitindo a previsão desses movimentos.
fluxos turbulentos
© Astrophysical Journal Letters (fluxos turbulentos)
Estudos sobre a dispersão de cinzas vulcânicas, ciclones, tornados, tsunamis, ciclos solares, formação de planetas e estrelas, o Universo primordial e outras áreas tão diversas como o transporte de sangue em sistema cardiovascular e a fusão termonuclear controlada poderão se beneficiar destas pesquisas.
Os trabalhos foram liderados pelo físico espacial Abraham Chian, do Instituto Nacional de Pesquisas Espaciais (Inpe), e pelo matemático computacional Erico Rempel, do Instituto Tecnológico de Aeronáutica (ITA), em São José dos Campos (SP), em cooperação com um colega da Universidade de Estocolmo (Suécia) e um aluno de doutorado do Inpe.
Um dos estudos foi concluído durante a visita de Chian ao Instituto de Tecnologia da Califórnia, nos Estados Unidos, com apoio de uma bolsa da Fundação Guggenheim. O estudo contou com a participação de Pablo Muñoz, estudante de doutorado do Inpe, que recebeu prêmio de melhor trabalho de alunos durante o 9º Congresso Latino-Americano de Geofísica Espacial realizado na Costa Rica, em abril de 2011.
Os cientistas estudaram o campo magnético relacionado às estruturas coerentes da turbulência verificada no plasma solar. De acordo com Chian, utilizando os dados fornecidos pelos instrumentos a bordo de quatro sondas espaciais da missão Cluster, o grupo detectou em frente a uma nuvem magnética interplanetária duas estruturas coerentes na forma denominada como “lâminas de corrente”.
“A análise de dados de flutuações magnéticas na vizinhança dessas estruturas coerentes demonstrou que o vento solar exibe o comportamento de turbulência bem desenvolvida do tipo Kolmogorov, semelhante às turbulências encontradas na borda de uma máquina de plasma de fusão termonuclear, na atmosfera solar, no meio interestelar, em um túnel de vento e na copa da floresta amazônica, para citar alguns exemplos”, disse Chian à Agência FAPESP.
A caracterização da dinâmica da borda dianteira de uma nuvem magnética interplanetária é fundamental para o monitoramento e a previsão de clima espacial, uma vez que existe a evidência de que a tempestade magnética na Terra pode ser iniciada pela chegada de uma nuvem magnética proveniente de uma erupção solar.
“Os eventos extremos na natureza, tais como ciclones, tsunamis, a precipitação excessiva de chuvas em regiões localizadas, manchas solares e ejeções de massas coronais interplanetárias, estão relacionados às estruturas coerentes que dominam a dinâmica da turbulência e podem causar grandes impactos no clima terrestre, clima espacial e ambiente solar-terrestre”, explicou.
O segundo trabalho foi iniciado durante o estágio de pós-doutorado de Rempel na Universidade de Cambridge, com bolsa da FAPESP, e contou com a colaboração de Chian e de Axel Brandenburg, professor do Instituto Nórdico de Astrofísica Teórica e da Universidade de Estocolmo (Suécia).
De acordo com Chian, Brandenburg é um dos pioneiros do modelo de dínamo cósmico. “Esse modelo de dínamo pode explicar a origem e a evolução de ciclos solares, por exemplo, o aparecimento de períodos prolongados de atividades calmas do Sol conhecidos como os Grandes Mínimos”, disse.
No estudo, o grupo investigou as estruturas coerentes lagrangianas da turbulência astrofísica, com base na simulação numérica de um modelo não-linear de dínamo.
As estruturas coerentes lagrangianas são linhas ou superfícies materiais que atuam como barreiras de transporte na turbulência. Inspirado pela teoria de caos, esse conceito foi introduzido há quase dez anos por George Haller, atualmente professor de engenharia mecânica da Universidade de McGill, no Canadá.
“Essa nova técnica não-linear permite uma visualização mais acurada da dinâmica e estrutura complexa de fluidos, que não seria possível usando as técnicas tradicionais baseadas em formalismo euleriano”, disse Chian.
Essas estruturas são determinadas por meio da computação do máximo expoente de Lyapunov de tempo finito, que fornece o valor médio da taxa máxima de divergência ou do alongamento entre as trajetórias das partículas num certo intervalo de tempo.
“Isso permite a identificação de trajetórias atrativas e repulsivas em imagens obtidas das simulações numéricas ou imagens reais do campo de velocidade de um fluido, revelando o esqueleto da turbulência que forma as barreiras para o transporte das partículas. Os cruzamentos entre essas barreiras são responsáveis pela mistura caótica de partículas”, disse.
O estudo de estruturas coerentes lagrangianas, segundo os autores, tem aplicações em diversas áreas, por exemplo, a previsão do movimento dos poluentes na atmosfera e no mar, a migração dos fitoplânctons no oceano, o fluxo aperiódico em furacões, a interação entre o fluido e a estrutura no entorno das válvulas cardíacas e o plasma termonuclear em máquinas de confinamento magnético.
De acordo com Rempel, o grupo brasileiro foi o primeiro a introduzir essa nova técnica para a astrofísica. Usando as imagens da turbulência de plasma simuladas para modelar a geração do campo magnético nas camadas convectivas do Sol e de outras estrelas, foi comprovado pelo estudo que as estruturas coerentes lagrangianas são capazes de distinguir nitidamente os detalhes da complexidade da distribuição espacial de barreiras de transporte entre dois regimes diferentes do dínamo.
“Desde que o conceito foi desenvolvido por Haller, a técnica foi aplicada para problemas de fluidos, tanto em simulações como em dados observacionais voltados para dispersão de poluentes nos oceanos, por exemplo, mas não tinham ainda sido utilizadas, no campo da astrofísica, em fluidos com campo magnético”, disse Rempel.
Essas estruturas coerentes marcam certas direções preferenciais das partículas de fluidos em movimento. Quando um poluente é arrastado pelos vórtices e correntes do oceano a identificação das estruturas coerentes permite detectar linhas de atração que possibilitam prever para onde o fluido irá se movimentar. O mesmo fenômeno pode acontecer, por exemplo, com as cinzas expelidas na atmosfera por um vulcão.
“No enfoque da astrofísica, nosso objetivo era saber qual o impacto do campo magnético sobre os movimentos turbulentos do plasma de uma estrela”, disse Rempel, que coordenou o projeto Simulação numérica e análise de transição para turbulência em plasmas espaciais: uma abordagem baseada em sistemas dinâmicos, apoiado pela FAPESP.
Segundo ele, na camada convectiva do Sol, uma região intensamente turbulenta, as partículas se movimentam como se estivessem aprisionadas em vórtices. As estuturas coerentes lagrangianas marcam as fronteiras desses vórtices, delimitando as regiões do fluido entre as quais as partículas não se misturam.
“Quando fazemos o estudo das estruturas coerentes, vemos que algumas partículas podem se cruzar, passando para outras regiões do fluido. No caso da estrela, observamos que, quando o campo magnético ficava mais forte, existiam menos cruzamentos – isto é, a turbulência diminuía”, disse.
Esses resultados, segundo Rempel, foram obtidos a partir de uma simulação ainda bastante simplificada. “A partir desse modelo acadêmico, vamos agora procurar estender essa aplicação a modelos mais realistas da camada convectiva do Sol”, disse.
Fonte: Agência FAPESP e Astrophysical Journal Letters

sexta-feira, 1 de julho de 2011

A granularidade do espaço

O Telescópio de Raios Gama Integral, da Agência Espacial Europeia, revelou que qualquer "granulação" quântica do espaço deve ter uma escala muito menor do que se previa.
explosão de raios gama
© ESA (explosão de raios gama)
A Teoria Geral da Relatividade de Einstein descreve as propriedades da gravidade e assume que o espaço é um tecido suave e contínuo.
No entanto, a teoria quântica sugere que o espaço deve ser granulado quando visto em uma escala suficientemente pequena, como a areia em uma praia.
Uma das maiores ocupações dos físicos na atualidade está na tentativa de conectar estes dois conceitos, criando uma única teoria da gravitação quântica.
Agora, o Integral colocou novos limites muito mais rigorosos para o tamanho desses "grãos" quânticos no espaço, mostrando que eles devem ser muito menores do que algumas ideias sobre a gravidade quântica vinham sugerindo.
Segundo os cálculos, os minúsculos grãos poderiam afetar a forma com que os raios gama viajam pelo espaço.
Os grãos devem "torcer" os raios de luz, mudando a direção na qual eles oscilam, cuja propriedade é denominada polarização.
Os raios gama de alta energia devem ser torcidos mais do que os raios gama de energias mais baixas, e a diferença na polarização pode ser usada para estimar o tamanho dos grânulos do espaço.
Philippe Laurent e seus colegas usaram dados do instrumento IBIS, a bordo do observatório Integral, para procurar diferenças de polarização entre raios gama de alta e baixa energia, emitidos durante uma das mais poderosas explosões de raios gama (GRBs) já vistas.
As GRBs vêm de algumas das explosões mais energéticas conhecidas no Universo. Acredita-se que a maioria delas ocorra quando estrelas muito maciças colapsam para formar estrelas de nêutrons ou buracos negros.
Esse colapso gera um gigantesco pulso de raios gama, com duração de poucos segundos até alguns minutos - mas, durante esse tempo, o pulso ofusca o brilho de galáxias inteiras.
O GRB 041219A ocorreu em 19 de dezembro de 2004 e foi imediatamente classificado no topo da lista dos GRBs em brilho. Ele foi tão brilhante que o Integral foi capaz de medir a polarização dos seus raios gama com precisão.
Os cientistas então procuraram diferenças na polarização a diferentes energias, mas não encontraram nenhuma dentro dos limites de precisão dos dados.
Algumas teorias sugerem que a natureza quântica do espaço - sua "granularidade" - deve manifestar-se na chamada escala de Planck: a 10-35 metro.
No entanto, as observações do Integral são cerca de 10.000 vezes mais precisas do que qualquer medição anterior e mostram que qualquer grão quântico deve estar em torno dos 10-48 metro ou menor.
"Este é um resultado muito importante em física fundamental e descarta algumas teorias das cordas e teorias da gravidade quântica em loop," afirmou o Dr. Laurent.
Fonte: ESA

quinta-feira, 30 de junho de 2011

O maior campo magnético é criado

Foi batido um novo recorde mundial para os campos magnéticos por físicos alemães, ao alcançar a marca dos 91,4 T (teslas).
bobina dupla
© Helmholtz-Zentrum (bobina dupla)
Para alcançar este recorde, Sergei Zherlitsyn e seus colegas do Centro Helmholtz desenvolveram uma bobina pesando aproximadamente 200 quilogramas.
Ao percorrer a bobina, uma fortíssima corrente elétrica cria o campo magnético, por um período de alguns milissegundos, sob risco de explodir a própria bobina.
O campo magnético influencia a própria corrente elétrica que o gera, tentando empurrar a corrente elétrica para fora da bobina. Quanto mais forte a corrente flui, mais fortes são essas forças.
"A 25 tesla, o cobre seria dilacerado," explica Joachim Wosnitza, que construiu a bobina. Para comparação, um ímã de geladeira comum tem 0,05 tesla.
"Apesar do recorde, não estamos realmente muito interessados em alcançar valores de campo cada vez mais altos, mas sim em usá-los para a pesquisa em ciência dos materiais", explica o pesquisador.
Quanto mais poderosos forem os campos magnéticos, mais precisamente os cientistas poderão estudar novos materiais para a construção de componentes eletrônicos inovadores, ou os chamados supercondutores, que conduzem eletricidade sem qualquer resistência.
Técnicas assim permitiram que a mesma equipe fizesse com que o semicondutor germânio se tornasse supercondutor a temperatura ambiente.
Os teóricos estimam que o estudo e a manipulação precisa desses novos materiais exigirão campos magnéticos entre 90 e 100 teslas.
A 100 teslas, porém, a força de Lorentz no interior do cobre poderia gerar uma pressão que equivale a 40.000 vezes a pressão do ar ao nível do mar.
banco de capacitores
© Helmholtz-Zentrum (banco de capacitores)
Uma força assim destruiria o cobre de forma instantânea, em uma explosão.
Por isso, para construir suas bobinas, os pesquisadores usam ligas de cobre especiais, capazes de suportar 10 mil vezes a pressão atmosférica.
Ainda muito pouco, sendo apenas um quarto do necessário para alcançar os 100 teslas.
A primeira saída encontrada foi unir os fios de cobre da bobina com fibras sintéticas de carbono, usadas em coletes à prova de balas, que pressionam o cobre de fora para dentro.
Isso permite construir uma bobina que alcança por volta de 50 teslas.
Para obter os 91,4 teslas do maior campo magnético já gerado, os pesquisadores construíram duas bobinas, colocando uma dentro da outra.
Ainda assim, o aparato só funciona durante alguns milissegundos, consumindo a energia fornecida por um gigantesco banco de capacitores.
Fonte: Helmholtz-Zentrum

sábado, 25 de junho de 2011

Transformação do neutrino

Cientistas acreditam estar um passo mais perto de entender por que a matéria e não a antimatéria domina o Universo - quantidades iguais de ambos teriam sido desencadeadas pelo Big Bang.
Super-Kamiokande
© Observatório Kamioka (Super-Kamiokande)
Uma equipe internacional de pesquisadores no Japão descobriu que os três tipos de neutrino, uma das partículas básicas da natureza, podem se transformar um no outro, o que poderia ser sua vantagem para o antineutrino.
O experimento foi realizado pelo Super-Kamiokande, um detector de neutrinos localizado 1 km debaixo da terra, em uma mina na cidade de Hida, no Japão. A estrutura cilíndrica tem 42 m de altura e 39,3 m de largura e é formada por 50 mil t de água pura rodeada por mais de 13 mil tubos fotomultiplicadores. O neutrino, ao colidir com os núcleos dos átomos de água emite radiação, e esta é captada pelos fotomultiplicadores(as bolas espalhadas na água na foto acima).
Em 1998 e 2001, os cientistas já haviam descoberto mudanças nas oscilações de neutrinos atmosféricos e aqueles emitidos pelo Sol. Os neutrinos têm três tipos, ou três "sabores". Já sabe-se que esses podem se transformar de duas formas, e o Super-Kamiokande descobriu mais uma forma.
Na natureza, as partículas fundamentais são divididas em três tipos. Existem por exemplo os léptons elétron, múon e tau - esta mesma divisão é utilizada para os neutrinos. As duas formas de transformação anteriormente observadas eram neutrinos de tau se transformarem em neutrinos de múon e vice-versa. Agora, o Super-Kamiokande trouxe à tona mais uma: neutrinos de múon se transformaram em neutrinos de elétrons, o que indica que todas as transformações são possíveis para essa partícula.
Essa capacidade de transformação de um tipo em outro que pode ser a diferença crucial entre o neutrino e o antineutrino e a predominância do primeiro no Universo.
Fonte: Universidade de Tóquio

sexta-feira, 10 de junho de 2011

Primeiro circuito integrado de grafeno

Cientistas da IBM apresentaram o primeiro circuito integrado feito com componentes de grafeno.
transístor de grafeno e um par de bobinas
© Science (transístor de grafeno e um par de bobinas)
Embora muito simples, a demonstração é um passo importante na transição do grafeno da categoria de material promissor para material útil.
Em 2009, um grupo do MIT havia construído um chip de grafeno, bastante rudimentar, mas mostrando que seria possível utilizar as folhas de carbono com apenas um átomo de espessura em conjunto com componentes da eletrônica tradicional.
Em 2010, um outro grupo da própria IBM construiu um transístor de grafeno que bateu o recorde mundial de velocidade, operando a 300 GHz.
Agora, Phaedon Avouris e seus colegas construíram um circuito integrado de verdade, usando equipamentos industriais e componentes de grafeno.
O circuito consiste de um único transístor de grafeno com um par de indutores integrados em uma pastilha de carbeto de silício (SiC).
O maior avanço desse pequeno circuito está no desenvolvimento de uma técnica para fixar o grafeno no silício, já que vinha sendo difícil convencê-lo a aderir nos metais ou nos óxidos usados pela indústria eletrônica.
Avouris e seus colegas tiveram uma ideia genial: em vez de fabricar o grafeno e depois fixá-lo sobre o silício, eles pegaram o carbeto de silício, que é formado de silício e carbono, e retiraram o silício da camada superficial, deixando apenas os átomos de carbono, que formaram o grafeno.
A litografia fez o resto, desenhando o transístor no grafeno que já nasceu fixado no silício.
Os indutores (bobinas) foram construídos de alumínio diretamente sobre a pastilha. Uma camada de 120 nanômetros de dióxido de silício, depositado por evaporação, isola as voltas das bobinas do restante do circuito.
circuito funciona como um misturador de frequências
© Science (circuito funciona como um misturador de frequências)
O circuito funciona como um misturador de frequências, operando a 10 GHz. Misturadores de frequência são utilizados em sistema de comunicação por rádio como, por exemplo, nas redes de comunicações sem fios.
O próximo passo da pesquisa será otimizar o transístor, para que ele opere em velocidades mais altas, e projetar circuitos mais complexos.
É grande a expectativa na indústria para a construção de circuitos híbridos, incluindo componentes feitos com os semicondutores tradicionais e componentes feitos com grafeno.
Fonte: Science

Grafeno na spintrônica

Filme de carbono com apenas um átomo de espessura e dotado de uma estrutura hexagonal, o grafeno é uma das esperanças para o desenvolvimento de uma nova eletrônica, a spintrônica, que poderá levar ao surgimento de computadores quânticos, ainda menores e mais rápidos.
folhas de grafeno
© Universidade de Manchester (folhas de grafeno)
Nesse novo mundo, a informação magnética não seria transmitida apenas pela corrente elétrica, como ocorre nos micros atuais, mas fundamentalmente por outra propriedade dos elétrons, por seu spin. Como só existem dois valores possíveis para o spin, esse estado do elétron pode ser útil para armazenar e propagar dados na forma de bits. Mas o sinal gerado pela corrente de spin é extremamente fraco e tende a se propagar em todas as direções, duas características que dificultam seu controle e detecção. De acordo com um trabalho recente de físicos teóricos brasileiros, esses empecilhos são aparentemente contornáveis no grafeno, um candidato a tomar o lugar do silício nos circuitos integrados do futuro: o spin de seus elétrons pode ser amplificado e controlado por meio de um mecanismo que funciona como uma lente, criando a possibilidade de o material ser usado como um nanotransistor quântico.
“Provamos matematicamente que o grafeno pode atuar como uma lente e redirecionar a corrente de spin de uma fonte magnética para uma determinada região onde se encontra uma unidade receptora”, diz o físico brasileiro Mauro Ferreira, do Trinity College, de Dublin, que participou do estudo, publicado na edição de maio do Journal of Physics: Condensed Matter, ao lado de colegas da Universidade Federal Fluminense (UFF). “Dessa forma, uma parte da informação que seria perdida pode ser resgatada.” Nada disso ainda foi feito em laboratório, apenas esboçado em trabalhos teóricos. Depois de uma série de cálculos, os pesquisadores afirmam que o grafeno, um material mais resistente do que o aço e melhor condutor de eletricidade do que o cobre, pode se comportar como um transistor de spin se exposto a certas condições. O artigo é o terceiro do grupo de físicos a explorar teoricamente as possibilidades do uso de nanotubos de carbono e do grafeno na spintrônica. Os dois estudos anteriores saíram no ano passado na Physical Review B.
Para transformar o spin do grafeno num meio capaz de transmitir informação num sistema quântico, os brasileiros trabalharam com um cenário bastante particular. A criação de uma corrente de spin foi simulada por meio da inserção de um objeto magnético na arquitetura atômica em forma de colmeia do grafeno, composta apenas por carbonos. “Imagine um pequeno ímã em movimento rotatório numa folha de grafeno”, compara Ferreira. A presença desse objeto estranho faria o spin dos elétrons de carbono vibrarem sucessivamente da mesma maneira. A vibração do spin de um elétron seria então repassada a seu vizinho e assim por diante. O problema é que uma corrente de spin se dissemina, sem controle, por todas as direções do grafeno. “A exemplo das ondas criadas por uma pedra jogada num lago, essa corrente é mais fraca à medida que se distancia de sua origem”, diz o pesquisador
O passo seguinte da simulação foi dividir o filme de grafeno em duas partes e alterar a densidade de carga elétrica numa delas. O procedimento geraria nesse segmento do grafeno um potencial de porta, um caminho para o qual a corrente de spin se dirigiria e por meio do qual se disseminaria pelo material. “A corrente de spin não dissipa calor no grafeno e a perda de energia num sistema assim seria mínima. Um dipositivo que funcionasse por meio dessa corrente consumiria pouquíssima energia”, afirma o físico Roberto Bechara Muniz, da UFF, outro autor do trabalho. Além de canalizar a corrente de spin para uma região específica do grafeno e, assim, amplificar seu sinal, a criação da porta funcionaria como uma chave para ligar e desligar o transistor. Permitiria barrar ou liberar a passagem da corrente de spin. “Nosso trabalho dá apenas uma pequena contribuição sobre essa questão, mas mostra ser possível controlar a corrente de spin no grafeno”, diz Muniz. Especialista em spintrônica, José Carlos Egues, do Instituto de Física de São Carlos, da Universidade de São Paulo, que não participou dos trabalhos de Ferreira e Muniz, considera os resultados interessantes, mas ainda muito preliminares. “Mais estudos são necessários para explorar a viabilidade da proposta e a sua relevância para aplicações em spintrônica”, comenta Egues.
Por didatismo, o spin é descrito como o movimento feito por um elétron ao girar em torno do próprio eixo como um pião. Há duas formas de spin, uma com rotação para cima e outra para baixo. Na verdade, o fenômeno é mais complicado do que isso e um elétron pode apresentar simultaneamente as duas variantes de spin. Em termos práticos, o desenvolvimento de uma nova eletrônica depende do pleno domínio da corrente de spin, como se tem atualmente da corrente elétrica, e de ter meios eficazes de controlar a conversão de um tipo de spin para outro. Físicos de todo o mundo têm tentado criar correntes de spin em materiais semicondutores e também no grafeno, um cristal bidimensional com um conjunto de propriedades singulares.
Num artigo publicado na revista científica americana Science de 15 de abril deste ano, Andre Geim e Konstantin Novoselov, físicos da Universidade de Manchester que ganharam o Nobel de Física de 2010 por seus trabalhos com o grafeno, mostraram indícios de que esse material pode mesmo transmitir uma corrente de spin. Eles aplicaram um campo elétrico entre dois eletrodos situados um milionésimo de metro de uma folha desse material e mediram a voltagem numa região distante 10 milionésimos de metro dos eletrodos. Quando o grafeno foi exposto a um campo magnético, a voltagem se tornou mais elevada. Essa variação, segundo os autores do estudo, é uma evidência de que há uma corrente de spin passando pelo grafeno.
Fonte: FAPESP (Pesquisa)

quinta-feira, 9 de junho de 2011

Ímã líquido gera magnetismo pelo movimento

A Terra, o Sol e outros corpos celestes geram campos magnéticos através do movimento dos seus fluidos internos condutores de eletricidade.
geodínamo
© Los Alamos National Laboratory (geodínamo)
Estes fluidos são frequentemente muitíssimo turbulentos.
Mas pode ser possível gerar magnetismo em um fluido que flui com suavidade, por exemplo, em um tanque de sódio líquido posto para girar suavemente.
Uma equipe de físicos anunciou ter alcançado uma amplificação de oito vezes de um campo magnético promissor. Na próxima fase de seu projeto, eles esperam demonstrar um campo magnético auto-sustentável, como ocorre na Terra, assim como em todos os planetas e estrelas.
Na última década, pesquisadores conseguiram criar campos magnéticos em laboratório usando os chamados dínamos fluidos. Assim como seus equivalentes astronômicos, esses sistemas são baseados na rotação de um fluido, tipicamente o sódio, devido à sua alta condutividade.
Um pequeno campo magnético inicial, aplicado ao tanque com o sódio em rotação, pode gerar uma corrente elétrica.
Esta, por sua vez, gera mais campo magnético, criando um círculo virtuoso que pode levar a um crescimento exponencial do campo.
Em vez de discutir as complexas interações corrente-campo magnético, os pesquisadores frequentemente descrevem essa amplificação como um processo de alongamento e dobramento das linhas do campo magnético, que são essencialmente arrastadas pelo fluido.
Mas não tem havido consenso nessas explicações. Alguns pesquisadores argumentam que o reforço do campo magnético é gerado pela turbulência, que cria vórtices capazes de realimentar o processo.
Outros, porém, argumentam que a turbulência é aleatória - dessa forma, alguns turbilhões atuarão no sentido da amplificação, enquanto outros terão o efeito oposto, tornando o campo magnético mais difuso e mais fraco.
Stirling Colgate e seus colegas do Laboratório Nacional Los Álamos, nos Estados Unidos, decidiram então partir para trabalhar com dínamos fluidos sem turbulência, nos quais o sódio é girado suavemente, de maneira contínua e previsível.
Isso permitirá descrever com bastante precisão o papel da turbulência nesses processos essenciais ao "funcionamento do cosmos".
O fluido está dentro de um tanque em forma de anel, de 30 centímetros de altura, cujo raio interno é metade do raio externo.
Em vez de usar hélices, o fluido é rotacionado girando as paredes do tanque. A parede interna gira a 68 rotações por segundo, enquanto a parede externa gira um quarto mais rápido.
Esse fluxo suave reproduz o que se acredita acontecer no interior das estrelas jovens e ao redor dos buracos negros.
No último experimento, a equipe aplicou um campo magnético de cerca de 12 G (gauss), apontando radialmente para dentro.
Como era de se esperar de um líquido condutor de eletricidade, o sódio "agarrou" as linhas do campo magnético e as fez girar em torno do tanque em forma de anel.
Este envolvimento e alongamento, que é chamado de efeito Ômega, criou um campo magnético na direção do fluxo do sódio que chegou a ser oito vezes mais forte do que o campo original.
Mas o efeito Ômega não é suficiente para que um campo magnético se auto-sustente. Para completar o dínamo, a equipe vai precisar dobrar uma parte do campo amplificado na direção radial original.
Isto poderá ser feito pelo chamado efeito Alfa, que resulta de movimento helicoidal do fluido.
A turbulência, com os seus redemoinhos espirais, é uma fonte natural de movimento helicoidal, mas o grupo espera criar um efeito Alfa suave, sem turbulência, disparando jatos de sódio a partir do fundo do tanque rotativo.
"A mensagem importante em termos de física é que os fluxos laminares podem produzir campos magnéticos em grande escala mais facilmente do que os fluxos turbulentos," comentou Cary Forest, da Universidade de Wisconsin, que trabalha em outro experimento de dínamo fluido.
Mas o próprio Forest salienta que a turbulência tem sido observada nos dínamos estelares e galácticos. Outros pesquisadores admitem que a turbulência diminui a eficiência dos dínamos fluidos, mas que a turbulência, seria inevitável.
O projeto Alfa-Ômega pode tirar essas dúvidas. E, se Fores e outros tiverem razão, exatamente por não reproduzir com naturalidade os processos que ocorrem nas estrelas e nos planetas, o experimento poderá revelar o peso que a turbulência exerce neles. E, também, será possível gerar campos magnéticos de alta potência, eventualmente com diversas aplicações práticas.
Fonte: Physical Review Letters

terça-feira, 7 de junho de 2011

Interpretações quânticas são questionadas

O cientista Aephraim Steinberg, da Universidade de Toronto, no Canadá, coordenou uma equipe internacional de experimentalistas que demonstrou que a tecnologia atual já é capaz de fazer medições sem afetar as partículas quânticas, e que estas partículas podem se comportar como ondas e partículas ao mesmo tempo.
experimento da dupla fenda
© Revista Física (experimento da dupla fenda)
Uma das demonstrações mais famosas da mecânica quântica é o chamado experimento da dupla fenda, que ensejou as discussões entre Niels Bohr e Albert Einstein, em 1927.
Quando um canhão dispara elétrons rumo a uma fenda, elas batem do outro lado de forma discreta. Mas quando a chapa tem duas fendas, o que se vê do outro lado é um padrão de interferência.
As seções claras e escuras do padrão de interferência correspondem aos picos e vales das ondas interferindo mutuamente, mostrando que as "partículas" passam simultaneamente pelas duas fendas, ou seja, comportam-se como ondas.
Contudo, quando se tenta colocar um detector em cada fenda, para ver em qual delas a partícula está passando, o padrão de interferência é destruído. Portanto, não se pode observar a partícula passando por uma das duas fendas sem destruir o efeito de interferência.
Isso deu origem ao famoso Princípio da Incerteza de Heisenberg, que estabelece que não é possível, ao mesmo tempo, medir a posição e o momento de uma partícula quântica.
Atualmente, a tecnologia alcançou um ponto que permite a realização de experimentos detalhados em sistemas quânticos individuais, com aplicações potenciais como a criptografia e a computação quântica.
Os pesquisadores reconstruíram o experimento da dupla fenda substituindo o canhão de elétrons por uma "lanterna" capaz de disparar um fóton de cada vez.
Foi utilizado um cristal de quartzo chamado calcita, que tem um efeito sobre a luz que depende da direção na qual a luz está se propagando, para medir a direção como uma função da posição.
Com isto, foi possível medir uma média tanto da posição quanto do momento do fóton, uma vez que continua sendo impossível determinar as informações para um fóton em particular. A imagem a seguir mostra a densidade de probabilidade que descreve a trajetória característica dos fótons.
densidade de probabilidade
© Science (densidade de probabilidade)
O resultado é uma demonstração realística, mas nada convencional, de que o fóton comporta-se simultaneamente como partícula e como onda, continuando a gerar o padrão de interferência típico das ondas mesmo quando passa por uma única fenda.
Isto foi possível de se medir porque o experimento é capaz de recompor a trajetória média dos fótons, sem interferir com eles, através de uma técnica chamada de medição fraca.
De fato, o experimento terá grande impacto filosófico, uma vez que descreve diretamente sobre as diversas reflexões da mecânica quântica, incluindo a interpretação de Copenhague, e das interpretações menos convencionais de David Bohm e Louis de Broglie.
A chamada teoria da onda piloto, por exemplo, propõe que cada partícula tem uma trajetória bem definida, que a leva diretamente a uma das fendas, enquanto sua onda associada passa pelas duas fendas simultaneamente. O experimento parece dar sustentação a essa interpretação.
O experimento mostra que o Princípio da Incerteza da Heisenberg não é tão rígido quanto parecia, seguindo uma tendência que já vem sendo demonstrada em outros trabalhos.
Esta pesquisa poderá ter aplicações práticas na computação quântica. As portas lógicas dos computadores quânticos poderão ser capazes de repetir uma operação quando a checagem de erro não se mostrar convincente.
Fonte: Science