domingo, 27 de novembro de 2011

Transístor quântico diminui consumo de energia

Um avanço demonstrado por pesquisadores da IBM e do Instituto Politécnico Federal de Lausanne, na Suíça, através dos fenômenos quânticos será possível diminuir o consumo de energia dos equipamentos eletrônicos por um fator de 100.

ilustração de um transistor quântico

© IBM (ilustração de um transístor quântico com nanotubos)

Como o grande limitador ao aumento de velocidade dos processadores é justamente o elevado consumo de energia, econsequentemente o calor dissipado por eles, é de se esperar um aumento equivalente na velocidade de processamento.

Recentemente, a IBM anunciou uma tecnologia que usa metal líquido para retirar calor dos processadores, afirmando que isso permitiria colocar um supercomputador atual dentro de um celular em breve.

O segredo está em um novo tipo de transístor, o elemento fundamental de toda a eletrônica, chamado Túnel-FET, ou TFET.

O termo túnel se refere ao fenômeno do tunelamento quântico, pelo qual uma partícula consegue atravessar uma barreira física - este fenômeno já é largamente utilizado, por exemplo, nos microscópios eletrônicos de tunelamento.

A tecnologia atual é baseada nos transistores de efeito de campo (FET, da sigla em inglês), onde um fluxo de elétrons ativa ou desativa o transístor - um fluxo de bilhões de elétrons, que esquenta tudo por onde passam.

No transístor, duas câmaras são separadas por uma barreira de energia. Na primeira, uma multidão de elétrons fica esperando quando o transístor está desligado. Quando é aplicada uma tensão, eles cruzam a barreira de energia, ativando o transístor. É o que se chama de injeção termal.

Ocorre que alguns elétrons acabam cruzando essa barreira antes da hora, mesmo que aparentemente não tivessem energia para tanto. Esse é o efeito túnel, que sempre atrapalhou o funcionamento dos transistores.

Estreitando a barreira do transístor torna-se possível amplificar o efeito quântico e passar a basear o funcionamento do transístor inteiro nesse tunelamento, que é a chamada injeção por tunelamento. A energia necessária para que os elétrons cruzem a barreira é reduzida drasticamente.

"Substituindo o princípio do transístor de efeito de campo tradicional pelo efeito túnel, pode-se reduzir a tensão dos transistores de 1 volt para 0,2 volt," afirmou o Dr. Adrian M. Ionescu, que está desenvolvendo o Túnel-FET juntamente com Heike Riel.

Sua adoção é viável, uma vez que os processadores poderão ser construídos com FETs e Túnel-FETs convivendo no mesmo chip.

"Os protótipos atuais foram construídos em ambiente pré-industrial. Nós podemos razoavelmente esperar vê-los em produção em massa por volta de 2017," disse Ionescu.

Fonte: Nature

sexta-feira, 18 de novembro de 2011

Luz gerada pelo vácuo

Um experimento, previsto há mais de 40 anos,  produziu luz a partir do vácuo.

ilustração do efeito Casimir dinâmico

© Philip Krantz/ U. Chalmers (ilustração do efeito Casimir dinâmico)

O grupo formado por Christopher Wilson e seus colegas da Universidade Chalmers, na Suécia, conseguiu capturar fótons que oriundos do vácuo quântico, aparecendo e desaparecendo continuamente.

O experimento é baseado num dos mais estranhos e importantes princípios da mecânica quântica: o princípio de que o vácuo não é um vazio "repleto de nada".

Na verdade, o vácuo é composto de partículas que estão flutuando continuamente entre a existência e a inexistência: elas surgem do vácuo quântico e têm uma vida efêmera e desaparecem novamente.

Seu tempo de vida é tão curto que esses fótons são mais comumente conhecidos como partículas virtuais.

O que os pesquisadores fizeram foi obter alguns desses fótons e dar-lhes a eternidade em termos quânticos, ou seja, transformá-los em fótons reais, luz que pode ser detectada por um sensor e medida.

Para capturar os fótons virtuais, os pesquisadores simularam um espelho movendo-se a uma fração significativa da velocidade da luz. O fenômeno, conhecido como efeito de Casimir dinâmico, foi observado experimentalmente pela primeira vez.

"Como não é possível fazer um espelho mover-se rápido o suficiente, nós desenvolvemos outra técnica para obter o mesmo efeito," explica o professor Per Delsing, coordenador da equipe. "Em vez de variar a distância física até um espelho, nós variamos a distância elétrica de um circuito elétrico que funciona como um espelho para microondas".

O espelho consiste em um sensor quântico conhecido como SQUID (Superconducting Quantum Interference Device), que é extremamente sensível a campos magnéticos.

Alterando a direção do campo magnético vários bilhões de vezes por segundo, os cientistas fizeram o espelho vibrar a uma velocidade equivalente a 25% a velocidade da luz.

Isto é cinco vezes mais do que a tentativa anterior, quando os cientistas afirmaram pela primeira vez ter produzido luz a partir do nada - aquele artigo, contudo, ainda não havia sido aceito para publicação em uma revista científica, o que significa que outros cientistas não haviam avaliado o experimento.

"O resultado foi que os fótons apareceram em pares do vácuo, e nós pudemos medi-los na forma de radiação de microondas," disse Delsing, ou seja, exatamente como a teoria previa.

O que acontece durante o experimento é que o espelho transfere uma parte de sua energia cinética para os fótons virtuais, o que os ajuda a se "materializarem".

Segundo a mecânica quântica, vários tipos de partículas estão presentes no vácuo quântico. Os cientistas acreditam que foram capazes de detectar os fótons porque eles não têm massa.

"É necessário relativamente pouca energia para excitá-los e tirá-los do estado virtual. Em princípio, pode-se criar outras partículas do vácuo, como elétrons e prótons, mas isso vai exigir um bocado mais de energia," disse Delsing.

Agora os cientistas querem estudar em detalhes esses fótons emergentes: como eles surgem aos pares, os cientistas acreditam que eles possam ser úteis para o desenvolvimento de computadores quânticos, com seus qubits de partículas entrelaçadas.

Fonte: Nature

sexta-feira, 4 de novembro de 2011

Leis da Física variam ao longo do Universo

Uma pesquisa afirma que as leis da natureza podem variar ao longo do Universo.

variação da constante alfa

© John Webb (variação da constante alfa)

O gráfico mostra medições feita pelo telescópio Keck e VLT (Very Large Telescope). Os quadrados são dados do VLT, os círculos do Keck, e os triângulos são quasares observados em ambos.

O estudo concluiu que uma das quatro forças fundamentais, o eletromagnetismo, parece variar de um lugar para outro.

O eletromagnetismo é medido por meio da chamada constante de estrutura fina, simbolizada pela letra grega alfa (α).

Esta constante é uma combinação de três outras constantes: a velocidade da luz (c), a carga do elétron (e) e a constante de Planck (h), onde α = e2/hc.

O resultado é cerca de 1/137, um número sem dimensão, o que a torna ainda mais fundamental do que as outras constantes, como a gravidade, a velocidade da luz ou a carga do elétron.

Em termos gerais, a constante alfa mede a magnitude da força eletromagnética, ou seja, a intensidade das interações entre a luz e a matéria.

Agora, John Webb e pesquisadores das universidades de Nova Gales do Sul e Swinburne, na Austrália, e Cambridge, no Reino Unido, mediram o valor de alfa em cerca de 300 galáxias distantes, usando dados do VLT do ESO, no Chile.

Observaram que numa direção, a partir de nossa localização no Universo, a constante alfa vai ficando gradualmente mais fraca, e gradualmente mais forte na direção oposta.

Isso mostra uma espécie de "eixo preferencial" para o Universo, de certa forma coincidente com medições anteriores que deram origem à teoria do chamado Fluxo Escuro, que indica que uma parte da matéria do nosso Universo estaria vazando por uma espécie de "ralo cósmico", sugada por alguma estrutura de um outro universo.

A descoberta, se confirmada, terá profundas implicações para o nosso entendimento do espaço e do tempo, e viola um dos princípios fundamentais da teoria da Relatividade Geral de Einstein, o princípio da equivalência de Einstein.

Essas violações são de fato esperadas por algumas “teorias de tudo”, que tentam unificar todas as forças fundamentais. Uma alteração suave e contínua de alfa pode implicar que o Universo seja muito maior do que a parte dele que conseguimos observar, possivelmente infinito.

O professor Webb afirma que esta descoberta também pode dar uma resposta muito natural para uma questão que tem intrigado os cientistas há décadas: por que as leis da física parecem tão bem ajustadas para a existência da vida?

"A resposta pode ser que outras regiões do Universo não são tão favoráveis à vida como nós a conhecemos, e que as leis da física que medimos em nossa parte do Universo são meramente 'regras locais'. Neste caso, não seria uma surpresa encontrar a vida aqui," afirma o cientista.

Isto porque basta uma pequena variação nas leis da física para que, por exemplo, as estrelas deixem de produzir carbono, o elemento básico da vida como a conhecemos.

Para chegar às suas conclusões, os cientistas usaram a luz de quasares muito distantes como faróis.

O espectro da luz que chega até nós, vinda de cada quasar, traz consigo sinais dos átomos nas nuvens de gás que a luz atravessou em seu caminho até a Terra.

Isto porque uma parte da luz é absorvida por estes átomos, em comprimentos de onda específicos que revelam a identidade desses átomos.

Essas linhas de absorção são então comparadas com as mesmas assinaturas encontradas em laboratório aqui na Terra para ver se a constante alfa é mesmo constante.

Os resultados mostraram que não, que alfa varia ao longo de um eixo que parece atravessar o Universo, assim como um eixo magnético atravessa a Terra.

Se há variação em uma das constantes, é de se esperar que as outras constantes fundamentais também variem.

Portanto, é preciso projetar experimentos que possam verificar variações na gravidade, na carga do elétron ou na velocidade da luz.

Fonte: Physical Review Letters

sábado, 29 de outubro de 2011

Rumo a estrela artificial controlada

Usando 60 raios lasers de alta potência, combinados para atingir uma cápsula minúscula, físicos produziram um plasma com condições de densidade de energia extremas.

© LLNL (Omega Laser)

Essas condições incluem uma pressão de 100 bilhões de atmosferas, uma temperatura de 200 milhões Kelvin e uma densidade 20 vezes maior que a do ouro.

Antes desse super disparo de laser, essas condições só podiam ser encontradas no núcleo de planetas gigantes, como Júpiter e Saturno, ou no interior das estrelas.

O experimento é um dos caminhos rumo à construção de uma "estrela artificial" controlada, onde a fusão nuclear poderá ser explorada para a geração sustentável de energia.

Muitos físicos acreditam que a fusão nuclear a laser seja a melhor saída para essa fonte de energia limpa.

O laboratório Omega Laser Facility, localizado na Universidade de Rochester, nos Estados Unidos, onde o recorde acaba de ser batido, é um dos que trabalham nesse sentido.

Os pesquisadores normalmente usam aceleradores para estudar as reações nucleares.

Neste laboratório, a equipe usou uma abordagem diferente, criando um plasma quente e denso, no qual elétrons são arrancados dos átomos para criar um plasma, o quarto estado da matéria.

O estado de plasma está presente nas estrelas, nos relâmpagos e até nas lâmpadas fluorescentes, na verdade 99% do Universo visível é composto de plasma.

Para obter esse plasma, todos os 60 feixes de laser do Laboratório Ômega foram dirigidos simultaneamente para a superfície de uma cápsula de vidro de um milímetro de diâmetro, cheia de isótopos pesados de hidrogênio - deutério e trítio.

laser sobre uma esfera de vidro com deutério e trítio

© LLNL (laser sobre uma esfera de vidro com deutério e trítio)

Os feixes de laser geram um plasma em rápida expansão, de alta temperatura, na superfície da cápsula, fazendo-a implodir.

Esta implosão, por sua vez, cria um plasma extremamente quente (100 milhões Kelvin) de íons de deutério e trítio, e de elétrons, dentro da cápsula.

Uma pequena fração dos íons de deutério e trítio se fundem, um processo que gera um nêutron viajando a um sexto da velocidade da luz, com cerca de 14,1 milhões de elétron-volts de energia - em comparação, a combustão de uma substância química comum, como a madeira ou o carvão, gera cerca de 1 elétron-volt de energia.

Conforme esses nêutrons energizados escapam da cápsula que está implodindo, uma pequena fração colide com os íons de deutério e trítio.

A partir dessas colisões, bastante raras, e da correspondente transferência de energia dos nêutrons para os íons, os pesquisadores podem obter uma medição precisa do processo de fusão nuclear.

Fonte: Physical Review Letters

Os buracos Kondo na supercondutividade

Pesquisadores usaram um composto de urânio, rutênio e silício (URu2Si2), que é conhecido como um "sistema de férmions pesados"  para obter efeitos sobre a supercondutividade, a capacidade de alguns materiais de transportar correntes elétricas sem resistência.

efeitos dos buracos Kondo na supercondutividade

© Davis Group (efeitos dos buracos Kondo na supercondutividade)

Os resultados revelaram como a substituição de apenas alguns átomos pode causar perturbações generalizadas das delicadas interações que dão ao material suas propriedades únicas, incluindo a supercondutividade.

É um sistema onde os elétrons que trafegam através do material param periodicamente para interagir com os elétrons localizados nos átomos de urânio que compõem a estrutura do cristal.

Essas interações magnéticas desaceleram os elétrons, fazendo com que pareça que eles têm uma massa extra, mas também contribui para a supercondutividade do material.

Em 2010, Séamus Davis, físico do Laboratório Nacional Brookhaven, dos Estados Unidos, e um grupo de colaboradores visualizaram esses férmions pesados pela primeira vez, usando a técnica de obtenção de imagens espectroscópicas por microscopia de tunelamento (STM-SI), que mede o comprimento de onda dos elétrons do material em relação à sua energia.

A ideia deste novo estudo foi "destruir" o sistema de férmions pesados, substituindo o tório por alguns dos átomos de urânio. O tório, ao contrário do urânio, não é magnético, portanto, em teoria, os elétrons deveriam ser capazes de se mover livremente ao redor dos átomos de tório, em vez de parar para os breves encontros magnéticos que têm com cada átomo de urânio.

Estas áreas onde os elétrons deveriam fluir livremente são conhecidas como "buracos Kondo", uma homenagem ao físico Jun Kondō que descreveu o espalhamento dos elétrons condutores devido as impurezas magnéticas.

Os elétrons fluindo livremente podem auxiliar na corrente elétrica sem resistência, mas os buracos Kondo acabam se tornando bastante destrutivos para a supercondutividade.

Trabalhando com amostras de tório dopado, feitas pelo físico Graeme Luke, na Universidade McMaster, a equipe de Davis usou sua ferramenta STM-SI para visualizar o comportamento dos elétrons.

Foram identificados inicialmente os locais dos átomos de tório na rede, e consequentemente as funções de onda da mecânica quântica dos elétrons em torno desses locais.

As medições confirmaram várias das previsões teóricas, incluindo a ideia proposta no ano passado pelo físico Dirk Morr, da Universidade de Illinois, de que as ondas de elétrons iriam oscilar descontroladamente ao redor dos buracos Kondo.

Assim, destruindo os férmions pesados, que devem emparelhar-se para o material agir como um supercondutor, os buracos Kondo interrompem a supercondutividade do material.

A técnica de visualização também revelou como apenas alguns poucos buracos Kondo podem provocar uma destruição generalizada.

O que os cientistas descobriram ao estudar esse exótico sistema de férmions pesados pode também valer para o mecanismo de outros supercondutores que operam em temperaturas mais altas.

Fonte: Proceedings of the National Academy of Sciences

sábado, 22 de outubro de 2011

Usando o Sol para testar teorias alternativas

Um grupo de físicos portugueses está propondo que o Sol seja usado para testar algumas teorias alternativas à Teoria da Relatividade Geral de Einstein.

Sol

© NASA/SOHO (Sol)

Jordi Casanellas e seus colegas da Universidade Técnica de Lisboa afirmam que uma teoria proposta há mais de um século por Arthur Eddington não foi totalmente descartada pelas observações recentes dos neutrinos solares e das ondas acústicas solares.

E, segundo eles, uma variante da teoria de Eddington pode ajudar a resolver algumas das deficiências das teorias atuais.

A Teoria da Relatividade Geral, que descreve a gravidade como a curvatura do espaço-tempo por corpos celestes de grande massa, tem passado por todos os testes aos quais tem sido submetida ao longo dos anos. Mas existem problemas para serem resolvidos.

Além da bem conhecida dificuldade de unificação com a mecânica quântica e das ainda pendentes explicações para a matéria e a energia escuras, há o problema bem mais sério das singularidades, onde as leis da física simplesmente se esfacelam.

Em 2010, Máximo Bañados (Universidade Católica do Chile) e Pedro Ferreira (Universidade de Oxford) propuseram uma variante da teoria de Eddington que adiciona um termo gravitacional repulsivo para a teoria da relatividade.

Mas o que parece ser a simples adição de mais um membro a uma equação tem um efeito devastador sobre o entendimento mais geral do cosmo.

Esse termo gravitacional repulsivo não apenas elimina a necessidade das singularidades, ele descarta a formação dos buracos negros e a ideia de que o Universo teria surgido de um Big Bang.

Quando tenta interpretar um campo gravitacional em um vácuo, essa teoria inspirada em Eddington é equivalente à Teoria da Relatividade. Mas ela prevê efeitos diferentes para a gravidade agindo no interior da matéria.

O lugar ideal para testar essas diferenças seria o interior de estrelas de nêutrons. Embora se acredite que estrelas de nêutrons possam ativar o vácuo quântico, não se sabe o suficiente a respeito delas para comparar as duas teorias. Por exemplo, recentemente foi encontrada uma estrela de nêutrons cuja existência parecia ser impossível.

O Sol é uma fonte de gravidade muito menos extrema do que uma estrela de nêutrons, porém o funcionamento do seu interior já é razoavelmente bem descrito pelos modelos solares.

O grupo de Casanellas calculou que, mesmo em sua forma newtoniana, não-relativística, a teoria derivada de Eddington prevê diferenças quantificáveis nas emissões solares em comparação com a teoria gravitacional padrão, desenvolvida por Einstein.

O termo gravitacional repulsivo na teoria de Bañados e Ferreira seria equivalente a dar um valor diferente para a constante gravitacional no interior da matéria.

E intensidades diferentes da gravidade no interior do Sol devem resultar em diferenças em sua temperatura interna, uma vez que se assume que o Sol está em equilíbrio hidrostático, ou seja, a pressão para dentro de sua massa é equilibrada pela pressão para fora gerada pelas reações de fusão nuclear em seu interior.

Uma temperatura mais elevada implica uma maior taxa de fusão nuclear, implicando em uma maior taxa de emissão de neutrinos solares, algo diretamente mensurável.

Uma força da gravidade maior no interior do Sol propicia numa variação na sua distribuição de densidade, o que deve modificar a propagação das ondas acústicas em seu interior, podendo ser medida com as técnicas da heliossismologia.

Todos esses dados já estão disponíveis. Contudo, eles colocam sérias restrições à nova teoria, impondo limites muito estreitos para seus valores.

Um teste mais rigoroso exigiria melhorias nos modelos solares, incluindo a abundância de hélio na superfície do Sol, ou medições mais precisas dos fluxos de neutrinos.

Paolo Pani, um dos membros da equipe, sugere um teste alternativo, aqui na Terra mesmo.

Para ele, tanto a teoria derivada de Eddington, quanto outras teorias alternativas da gravidade, poderiam ser testadas medindo a atração gravitacional entre uma esfera de metal inserida em um buraco no solo e a massa da Terra ao seu redor.

A ideia é fazer um buraco onde coubesse apenas a esfera, e nada mais, com uma precisão gigantesca, de forma que a medição mostrasse apenas a intensidade da gravidade no interior da matéria, e não no vazio ao seu redor.

Entretanto, tal experimento apresenta desafios consideráveis.

Fonte: Physics World

sábado, 8 de outubro de 2011

A pura luz do laser de raios X

Pesquisadores analisaram os primeiros resultados do LCLS (Linac Coherent Light Source), uma fonte de laser de raios X recém-inaugurada na Universidade de Stanford, nos Estados Unidos.
estação de espalhamento de raios X ressonante
© SLAC (estação de espalhamento de raios X ressonante)
Na medida da coerência do laser, que é o grau em que as ondas de luz são sincronizadas, descobriu-se que o LCLS produz a mais coerente radiação de raios X já medida.
Com um feixe de tão alta qualidade, a máquina é capaz de determinar a estrutura atômica de materiais com um nível de precisão sem precedentes.
Isto será útil em campos tão diversos quanto a descoberta de novos medicamentos, a engenharia de materiais e até a arqueologia.
Desde a invenção do maser, em 1957 - o antecessor de micro-ondas do raio laser de luz visível - cientistas têm desenvolvido lasers com comprimentos de onda cada vez mais curtos, aplicando-os a uma crescente variedade de propósitos.
Mas fazer lasers com comprimentos de onda muito curtos é um desafio. Para que uma fonte de luz seja um laser, a maioria dos seus fótons deve ser coerente, e eles devem oscilar em sincronia.
Uma alta coerência significa que a luz vai difratar mais precisamente, o que, para um feixe de raios X, significa imagens mais nítidas da estrutura atômica que está sendo estudada.
Feixes de laser também têm vários modos de oscilação, assim como instrumentos de cordas e tambores, e o feixe ideal tem todos os seus fótons contribuindo para um único modo.
detector Linac Coherent Light Source
© SLAC (detector Linac Coherent Light Source)
Quando o LCLS começou a operar, a evidência para uma luz verdadeiramente laser foi a presença de pulsos de raios X brilhantes, monocromáticos e altamente focados.
No entanto, até agora, as estimativas da coerência da luz eram baseadas unicamente em simulações.
Agora, os cientistas mediram na prática um tempo de coerência de 0,55 femtossegundo, o que significa que o pulso tem efetivamente a mesma cor e intensidade durante esse intervalo de tempo, equivalente a uma distância de cerca de 150 nanômetros ao longo da direção do feixe.
Assim, uma amostra de 150 nanômetros de profundidade pode ser iluminada com luz coerente de uma única vez, gerando uma fotografia da amostra com um grande campo de visão, da largura de milhares de átomos.
Ter este nível de coerência significa que a maioria dos fótons está confinada a um único modo espacial.
Cerca de 78% dos fótons do laser de raios X estavam no modo dominante, em comparação com menos de 1% em uma fonte de luz síncrotron de raios X típica.
Um artigo sobre a pesquisa foi publicado na revista Physical Review Letters.
Fonte: SLAC National Accelerator Laboratory

quinta-feira, 6 de outubro de 2011

Resfriamento luminoso

Um grupo internacional de pesquisadores, com participação brasileira, conseguiu pela primeira vez, utilizando um laser, resfriar um nano-objeto mecânico até o seu estado de mais baixa energia possível, a chamada energia de ponto zero.
resfriamento a laser
© Nature (resfriamento a laser)
De acordo com os autores, ao empregar a luz para colocar um sistema mecânico sólido no estado de energia de ponto zero - e no qual ele se comporta de acordo com as leis da mecânica quântica - o estudo abre caminho para o desenvolvimento de detectores de massa e força extremamente sensíveis, além de abrir perspectivas para a realização de experimentos quânticos em sistemas macroscópicos.
O trabalho foi realizado por pesquisadores do Instituto de Tecnologia da Califórnia (Caltech), dos Estados Unidos, em colaboração com uma equipe da Universidade de Viena, na Áustria.
Um dos autores é o brasileiro Thiago Alegre, atualmente professor do Departamento de Física Aplicada da Universidade Estadual de Campinas (Unicamp). Nos últimos três anos, Alegre esteve no Caltech como pós-doutorando, depois de concluir o doutorado na Unicamp, com bolsa da FAPESP.
Com o uso de um laser, o grupo resfriou a microcavidade de um nano-objeto até seu estado de energia de ponto zero. O feito só havia sido alcançado anteriormente em sistemas de armadilhas ópticas contendo poucos átomos.
"Usamos um recurso óptico, o laser, para resfriar um sistema mecânico sólido ao estado de mais baixa energia possível. Isso só havia sido feito com poucos átomos ou íons, mas conseguimos fazê-lo com um sistema composto por bilhões de átomos. O estudo abre caminho para realizar experimentos quânticos em sistemas macroscópicos, o que é um sonho dos cientistas há quase uma década", disse Alegre.
Para o experimento, os cientistas projetaram e fabricaram uma cavidade óptica nanométrica, composta de uma pequena viga feita de silício, na qual buracos da ordem de 200 nanômetros são cuidadosamente posicionados. A estrutura tem dimensões de cerca de 560 nanômetros de largura e 15 mícrons de comprimento. O mícron e o nanômetro são, respectivamente, a milionésima e a bilionésima parte do metro.
"Essa geometria forma uma cavidade óptica onde apenas uma frequência - ou cor - de um laser pode ser confinada. O sistema tem a capacidade de servir como oscilador mecânico, podendo também aprisionar fônons - as partículas associadas com oscilações mecânicas, assim como os fótons estão associados com as oscilações eletromagnéticas, ou luz", explicou.
Por confinar em um mesmo local fótons e fônons, a pequena estrutura intensifica a interação entre vibrações mecânicas e luz. "Trata-se de um sistema optomecânico. A luz que atravessa essa cavidade, carregando informação sobre a amplitude de oscilação do sistema, ou número de fônons, pode ser associada à temperatura desse modo de oscilação", disse Alegre.
Ao escolher cuidadosamente a frequência do laser de excitação, os pesquisadores conseguem extrair energia mecânica por meio da luz que sai da cavidade, resfriando o sistema, segundo o cientista. Com isso, criam uma interface eficiente entre um sistema óptico e um sistema mecânico onde a informação pode fluir de um para outro.
Estabelecer o "diálogo" entre o mundo mecânico e o mundo óptico tem desdobramentos científicos importantes, segundo Alegre. Em outro estudo também publicado na Nature, no início de 2011, o mesmo grupo demonstrou os efeitos do modo mecânico sobre a luz, interação que possibilita em tese a criação de memórias ópticas.
"Já no trabalho que acaba de ser publicado, demonstramos o efeito da parte óptica sobre a parte mecânica. Demonstrando a interação pelos dois lados, abrimos a possibilidade de conseguir um controle muito maior sobre ela", afirmou Alegre.
Um dos recursos utilizados por cientistas para estudar efeitos quânticos em escala macroscópica tem sido os experimentos que utilizam a condensação de Bose-Einstein - uma fase da matéria formada por átomos em temperaturas próximas do zero absoluto.
Mas, segundo Alegre, para se trabalhar dessa maneira, o primeiro passo é levar o sistema ao estado fundamental, isto é, baixar sua temperatura global até poucas dezenas de milikelvins.
"Para chegar ao estado fundamental é preciso trabalhar com as temperaturas próximas de zero kelvin, o que é bastante complexo e caro. No nosso experimento, não baixamos a temperatura global do sistema. Trabalhamos com uma temperatura de cerca de 20 kelvin. Em vez de baixar toda a temperatura do sistema, criamos um caminho óptico para que apenas o modo vibracional chegasse próximo de zero kelvin", explicou.
Segundo Alegre, os cientistas criaram um caminho de fuga para os fônons através da luz. "Aprisionada na cavidade óptica, a luz tenta mudar de cor toda vez que a cavidade se move, absorvendo energia mecânica do sistema, que é assim resfriado", disse.
Fonte: Nature e FAPESP

terça-feira, 4 de outubro de 2011

Qual será o destino final do Universo?

Os americanos Saul Perlmutter, Brian P. Schmidt e Adam G. Riess são os ganhadores do Prêmio Nobel de Física 2011 por seus trabalhos sobre a expansão acelerada do Universo, informou nesta terça-feira a Real Academia de Ciências da Suécia.
8x10.ai
© NASA/ESA (SN 1604 - supernova de Kepler)
Saul Perlmutter, nascido em 1959 nos Estados Unidos,  é astrofísico no Laboratório Nacional Lawrence Berkeley e coordena o Projeto Cosmológico Supernova, na Universidade da Califórnia. Foi eleito membro da Associação Americana para o Avanço da Ciência.
Brian P. Schmidt , nascido também nos Estados Unidos em 1967 e com nacionalidade australiana, é astrofísico do observatório Mount Stromlo da Universidade Nacional da Austrália.
Adam G. Riess, nascido em Washington em 1969, é astrofísico no Instituto Científico de Telescópios Espaciais da Universidade John Hopkins. Foi nomeado membro da Academia Nacional das Ciências dos Estados Unidos.
Saul Permutter, Adam Riess e Brian Schmidt
© AFP (Saul Permutter, Adam Riess e Brian Schmidt)
O prêmio de 10 milhões de coroas suecas, (cerca de R$ 2,8 milhões), será dividido em duas partes. Uma para Perlmutter e, a outra, entre Schmidt e Riess.
O Supernova Cosmology Project, da Universidade de Berkeley, e o High-z Supernova Search Team, da Universidade Nacional da Austrália, estavam mapeando o Universo em busca de suas supernovas (um tipo específico de estrelas no fim de sua vida) mais distantes, para tentar demonstrar que a expansão do Universo estava se desacelerando.
As observações feitas em 1998 por estes astrônomos, associados em duas equipes diferentes, sobre a explosão de supernovas e a análise da luz emitida nessas situações permitiu demonstrar que o Universo cresce de forma acelerada e não cada vez mais devagar, como se achava.
A descoberta da expansão acelerada do Universo foi possível através da observação de um tipo muito especial de supernova: a supernova Ia.
Trata-se da explosão de uma estrela muito antiga e compacta, tão pesada quanto o Sol, mas de tamanho relativamente pequeno, como o da Terra. Uma única supernova pode emitir, durante algumas semanas, tanta luz quanto uma galáxia inteira.
Os dois times de pesquisa descobriram mais de 50 dessas supernova e detectaram que a luz delas era mais fraca do que o esperado, um sinal de que a expansão do Universo estava acelerando.
Embora os resultados contrariassem todas as previsões, ambos os grupos chegaram às mesmas conclusões sobre a aceleração.
Acredita-se que o fenômeno seja causado pela energia escura, que compõe cerca de 70% do Universo e sobre a qual ainda quase não se sabe nada.
As pesquisas realizadas também mostram como as equações da teoria da relatividade geral, desenvolvida em 1915 pelo físico alemão Albert Einstein, estão corretas.
A constante cosmológica foi um recurso usado por Einstein para tentar equacionar a expansão do Universo com apenas a matéria visível disponível.
Antes de morrer, em 1953, Einstein reconheceu a constante cosmológica como um erro. Ele também admitiu que o Universo, de fato, estava se expandindo.
Agora, a constante cosmológica é utilizada para provar o aumento do Universo. Diferente da ideia inicial de Einstein, mas salvando um conceito que era tido como errado há mais de meio século.
No entanto, a descoberta de que essa expansão está se acelerando é espantosa. Se ela continuar acelerando, o Universo  vai acabar em gelo!
Fonte: The Royal Swedish Academy of Sciences

domingo, 2 de outubro de 2011

O Tevatron parou de acelerar partículas

O maior acelerador de partículas dos Estados Unidos, o Tevatron, localizado no estado de Illinois, encerrou suas atividades no dia 30 de setembro de 2011 depois de 25 anos recriando as condições do Big Bang.

Tevatron

© Fermilab (Tevatron)

O Tevatron ficou obsoleto após o aparecimento do Grande Colisor de Hádrons (LHC), um acelerador de partículas mais poderoso, o maior do mundo, construído na fronteira franco-suíça, pelo Centro Europeu de Pequisa Nuclear (CERN), um consórcio de 20 países.
Por causa da crise econômica, dificilmente os Estados Unidos, que já dominaram a área e colheram os louros de descobertas e inovações tecnológicas, serão capazes de reunir os recursos necessários para construir um substituto mais moderno para o Tevatron.
Por isso, físicos americanos se concentrarão em questões internas mais específicas e menos caras. Também trabalharão em conjunto com o CERN em projetos de alta energia, como a busca pelo Bóson de Higgs, batizada de "partícula de Deus".

Os cientistas do Fermilab dizem não poder prever o que os EUA perderão cedendo o domínio da física de alta energia para a Europa. Já os ganhos obtidos com o Tevatron são muito mais fáceis de quantificar. O Tevatron deu contribuições fenomenais para a Física de partículas, cuja principal descoberta foi o quark top em 1995.
Além de aprofundar nosso conhecimento sobre os mistérios fundamentais do Universo, o Tevatron também levou a uma série de avanços concretos. Entre eles está o uso generalizado da geração de imagens por ressonância magnética (MRI) para diagnósticos médicos. Os supercondutores utilizados nos magnetos das máquinas de MRI eram raros e caros demais até que o Fermilab criou uma indústria com o Tevatron, gerando uma demanda de fios de supercondução suficientes para dar a volta na Terra 2,3 vezes.
Atualmente, os cientistas estão construindo uma câmera de energia escura, que será capaz de varrer a galáxia mais rápido do que qualquer outro telescópio. Sua função será descobrir porque a expansão do Universo acelera ao invés de recuar. Eles também trabalham na construção do feixe de neutrinos mais poderoso do mundo, que ajudará a explicar porque o Universo tem mais matéria do que antimatéria e aprofundar nosso conhecimento sobre suas partículas mais abundantes.

cavidades para acelerar partículas de alta intensidade

© Fermilab (cavidades para acelerar partículas de alta intensidade)

Além disso, existe o projeto do acelerador de neutrinos mais intenso do mundo, batizado Projeto X, tornando a melhor máquina para experimentos na fronteira de alta energia.

O feixe de partículas produzira káon, múon, além de neutrinos que tentariam desvendar questões importantes do século 21 na Física: O que aconteceu com a antimatéria? Como unificar todas as forças? Como o Universo surgiu?

Fonte: Fermilab e Veja

sexta-feira, 23 de setembro de 2011

Neutrinos podem superar a velocidade da luz

Os neutrinos podem alcançar uma velocidade superior à da luz, segundo os primeiros resultados divulgados pelo experimento OPERA (Oscillation Project with Emulsion-tRacking Apparatus), após testes realizados no laboratório de física CERN.
neutrinos mais rápidos que a luz
© Revista Física (neutrinos mais velozes que a luz)
A informação foi dada pelo Centro Francês de Pesquisas Científicas (CNRS), a experiência lançou neutrinos desde as instalações do CERN, em Genebra, em direção ao laboratório italiano Gran Sasso a 730 km de distância.
Os neutrinos chegaram a seu destino, em Gran Sasso, 60 nanosegundos mais rápidos que a luz, que cobre essa distância em 2,4 milisegundos. E isso só pode ser possível se eles estiverem viajando a uma velocidade maior do que 299.792.458 metros por segundo, que é a velocidade exata da luz.
Para checar seus resultados, os cientistas usaram relógios atômicos e avançados sistemas de GPS, conseguindo com isso reduzir a incerteza da distância percorrida pelos neutrinos para 20 centímetros - em relação aos 730 km do feixe.
O tempo de chegada dos neutrinos foi medido com uma incerteza de 10 nanossegundos. Os resultados se baseiam na observação de mais de 15 mil neutrinos.
Até agora, a velocidade da luz foi considerada um limite intransponível, e esta nova experiência pode abrir perspectivas teóricas completamente novas.
A experiência foi iniciada em 2006 para estudar as transformações raras (oscilações) dos neutrinos muônicos em neutrinos tauônicos, uma das quais pôde ser observada em 2010, comprovando a capacidade única do programa para detectar esses sinais.
Novas medições são necessárias para confirmar ou refutar este experimento. Creio que a teoria da relatividade não será abalada, mas se o resultado for confirmado provocará uma extensão desta teoria.
Fonte: CNRS

terça-feira, 20 de setembro de 2011

Energia gerada por fusão nuclear a laser

O sonho de dominar a energia das estrelas continua prosperando.
laser implode a esfera contendo hidrogênio pesado
© LLNL/NIF (laser implode a esfera contendo hidrogênio pesado)
A fusão a laser é uma tecnologia diferente da chamada "fusão magneticamente induzida", usada no ITER e em outros experimentos.
Esta tecnologia está sendo usada no projeto Hiper, que pretende iniciar a fusão nuclear usando um equipamento de raio laser, e no projeto JET (Joint European Torus).
Agora, pelo menos três parceiros de peso acabam de anunciar um esforço conjunto para tentar domar a fusão nuclear a laser.
A equipe será formada pelo Laboratório Nacional Lawrence Livermore (EUA), Laboratório Rutherford Appleton (Grã-Bretanha) e pela empresa privada AWE.
Em altas temperaturas e pressões, os núcleos dos isótopos pesados de hidrogênio - deutério e trítio - formam um plasma, podendo ser fundidos para formar hélio, liberando energia e um nêutron.
Disparando feixes sincronizados de laser pulsado é possível vaporizar a superfície de uma esfera cheia desses isótopos, forçando a esfera a implodir, produzindo assim as condições de fusão em seu interior durante alguns bilionésimos de segundo.
O efeito físico se assemelha à detonação de uma bomba termonuclear (bomba de hidrogênio), embora em uma escala muito menor.
Os reatores de fusão magnética disparam um poderoso pulso elétrico sobre o hidrogênio pesado para produzir um plasma. Um forte campo magnético é então usado para confinar o plasma, antes que a fusão possa ocorrer. Isso não é fácil, porque o plasma pode tornar-se instável e mesmo vazar.
Por outro lado, a fusão a laser produz temperaturas e pressões muito mais elevadas, de modo que a fusão ocorre mais rápido - com isto, o plasma precisa ser confinado por apenas alguns bilionésimos de segundo, o que é muito mais simples.
A fusão nuclear de qualquer um dos dois tipos é atraente como fonte de energia porque seu combustível é mais abundante, e o processo não produz os isótopos altamente radioativos gerados pela divisão de átomos de urânio.
Mas os nêutrons da fusão são perigosos e tornarão radioativos os materiais usados no interior do reator - estima-se que as placas internas de um reator tokamak precisarão ser constantemente trocadas.
O trítio no combustível também é radioativo: ele emite partículas beta, mas tem a vantagem de ter uma meia-vida de apenas 12,5 anos.
A fusão a laser vem sendo estudada desde a década de 1960, com fins bélicos.
Hoje, o maior laser de fusão é o NIF (National Ignition Facility) em Livermore, que é um dos participantes do acordo agora anunciado.
Até o final do próximo ano, o laboratório espera atingir a "ignição", produzindo mais energia a partir da fusão nuclear do que é necessário para gerar o pulso de laser.
Enquanto isso, não se espera que o ITER - que usa a fusão magnética - atinja a ignição antes de 2020.
Lasers menores estão sendo usados em programas de fusão no Rutherford Appleton (outro parceiro do novo acordo), na Universidade de Rochester (EUA) e na Universidade de Osaka (Japão).
A França está construindo um sistema do mesmo porte do NIF chamado Laser Megajoule.
Mike Dunne, do Laboratório Lawrence Livermore, diz que, se tudo correr bem, uma usina de fusão de 440 megawatts poderá ser instalada em uma década. Projetos futuros, maiores, poderiam atingir até 1 GW (1.000.000.000 W).
Mas é bom não confiar muito nessas previsões. Tudo é novo na área, e os físicos e os engenheiros nem mesmo sabem os problemas que terão pela frente.
Como esta aplicação é nova na área, muitos problemas surgirão. Portanto, ainda não há previsão consistente dos resultados.
Fonte: New Scientist

sexta-feira, 16 de setembro de 2011

Sonho de Einstein vira realidade

Uma equipe de pesquisadores europeus conseguiu pela primeira vez estabilizar um estado quântico de forma constante.
emissões de fótons
© CNRS (emissões de fótons)
Este foi um sonho várias vezes manifestado por Albert Einstein, que afirmava que se contentaria em observar um fóton preso por um segundo - Einstein não se dava muito bem com as predições pouco usuais da mecânica quântica, que ele nunca aceitou por completo.
Clément Sayrin e seus colegas do Laboratório Kastler Brossel, na França, fizeram bem mais do que isso: eles mantiveram um número constante de fótons aprisionados dentro de uma cavidade de micro-ondas "de forma permanente".
Essa caixa de fótons é uma cavidade de ressonância formada por dois espelhos supercondutores, onde os fótons ficam presos de forma contínua, sem precisar que eles sejam continuamente transferidos de uma armadilha para outra.
Normalmente um fóton, a unidade básica da luz, somente pode ser observado quando ele desaparece.
Por exemplo, quando atinge as células fotorreceptoras do nosso olho, o fóton deixa de existir e sua "informação" é traduzida na forma de um impulso elétrico que nos dá consciência de sua finada existência.
Seu aprisionamento ou estabilização permite que eles sejam estudados de forma direta, eventualmente sem serem afetados, algo que passou a ser cogitado há pouco tempo com a chamada "medição fraca".
Fótons e outras partículas subatômicas obedecem às regras da mecânica quântica, um tanto esquisita em relação à mecânica clássica. Mas deve haver uma fronteira entre as duas, um momento de transição onde as duas atuam de uma maneira ainda não compreendida.
Para estudar essa transição, os cientistas precisam parar, ou estabilizar, as partículas quânticas.
Além do entendimento do funcionamento básico da natureza, esses experimentos têm ligação direta com a computação quântica e com a spintrônica, duas abordagens que surgem no horizonte como sucessoras da atual era da informática eletrônica.
Fonte: Nature

quinta-feira, 15 de setembro de 2011

Neutrinos e antineutrinos parecem ter a mesma massa

A edição de 8 de julho passado da prestigiada revista científica Physical Review Letters (PRL) trouxe um artigo polêmico para a comunidade de físicos de partículas.
detector de Soudan
© Universidade de Minnesota (detector de Soudan)
Um trabalho feito no Fermilab por uma equipe internacional de pesquisadores, entre os quais quatro brasileiros, fornecia indícios de que os neutrinos do múon e seus respectivos antineutrinos poderiam não se comportar exatamente da mesma maneira e apresentar até massas distintas. O estudo sinalizava que talvez as diferenças entre a matéria e a antimatéria fossem maiores do que postula o modelo padrão, o arcabouço teórico erigido nos últimos 50 anos para explicar as interações entre as partículas subatômicas, os blocos que formam a matéria. Era um resultado surpreendente, que se baseava na análise de informações preliminares obtidas até junho de 2010 pelo experimento Minos (Main Injector Neutrino Oscillation Search), um dos projetos científicos tocados no laboratório americano, situado em Batavia, nos arredores de Chicago. O conteúdo do artigo, aparentemente em desacordo com algumas leis da física, conforme seus próprios autores, deve ser interpretado com cautela. Afinal, havia 2% de chance de os inusitados dados iniciais do Minos se deverem a uma flutuação estatística momentânea e não espelharem a realidade de neutrinos e antineutrinos.
Em 25 de agosto, no entanto, depois de quase dobrar a quantidade de informação processada pelo experimento em relação aos dados do artigo na PRL, o Fermilab divulgou um comunicado ao público. “Medidas mais precisas nos mostram que, muito provavelmente, essas partículas e suas antipartículas não são tão diferentes como indicamos antes. Dentro de nosso atual campo de visão, parece agora que o Universo está se comportando da maneira que a maioria das pessoas pensa que ele se comporta”, disse, em nota à imprensa, Rob Plunkett, cientista do Fermilab e um dos porta-vozes do Minos. De acordo com o estudo publicado na PRL, referendado pelo tradicional processo de revisão pelos pares (peer review) antes de ser aceito, o quadrado da massa dos antineutrinos – os pesquisadores usam como parâmetro de comparação o valor da massa elevada à segunda potência, e não apenas a medida da massa – parecia ser cerca de 40% maior do que o dos neutrinos. “Passamos quase um ano procurando algum efeito de instrumentação que pudesse ter causado essa diferença. É reconfortante saber que a estatística era a culpada”, afirmou outra porta-voz do experimento, a física Jenny Thomas, da University College London. Segundo as novas informações revisadas internamente pelos pesquisadores do Fermilab no fim do mês passado, mas ainda não submetidas ao escrutínio de uma revista com peer review, essa diferença se reduziu hoje para 16%. Há, portanto, uma grande possibilidade de as massas de neutrinos e antineutrinos serem iguais, como sustentam os modelos físicos atualmente aceitos.
Um dos participantes do Minos, o físico brasileiro Carlos Escobar explica que a revisão dos resultados do experimento foi encaminhada de forma a evitar qualquer tipo de análise enviesada. “Tudo foi feito às cegas e de forma automatizada”, afirma Escobar, hoje professor colaborador da Universidade Estadual de Campinas (Unicamp) e pesquisador do Fermilab. “Os dados são soberanos.” Ele, no entanto, admite que o novo cenário trouxe alívio para os físicos. “A comunidade científica está mais tranquila”, diz Escobar. Vários experimentos internacionais que trabalham com partículas e antipartículas pressupõem que neutrinos e antineutrinos têm a mesma massa para realizar seus cálculos. Quando aparece um estudo que contradiz tal preceito, caso do artigo do Minos na PRL, algum pilar da física pode ter sido arranhado.
Desaparecimento e oscilação – O objetivo do projeto do Fermilab é comparar a ocorrência de um fenômeno conhecido como oscilação em neutrinos e em antineutrinos do múon. No jargão dos físicos, quando um tipo de neutrino ou de antineutrino se transforma em outro ao se deslocar, ocorre uma oscilação. Há três formas ou sabores de neutrinos e antineutrinos: os do múon, os do tau e os do elétron. Esse trio de partículas com carga elétrica é chamado genericamente de léptons (neutrinos são léptons neutros). No Minos, os cientistas compararam a frequência com que neutrinos e antineutrinos do múon desapareceram e, supostamente, transformaram-se em neutrinos e antineutrinos do tau. “É a primeira vez que algum grupo de pesquisa mede a oscilação de antineutrinos do múon”, diz Philippe Gouffon, do Instituto de Física da Universidade de São Paulo (IF-USP), que também participa do experimento feito nos Estados Unidos.
Conceitualmente, a antimatéria é definida como uma espécie de cópia da matéria, com a qual divide basicamente as mesmas propriedades, inclusive a massa. Mas há uma diferença fundamental entre ambas: as antipartículas que moldam a antimatéria apresentam carga elétrica com sinal invertido em relação às suas respectivas partículas de matéria. Com carga positiva, o pósitron é a antipartícula do elétron, cuja carga é negativa. Fazendo jus a seu nome, neutrinos e antineutrinos são eletricamente neutros. No entanto, os primeiros estão ligados aos léptons de carga negativa e os segundos, aos de carga positiva. Os físicos acreditam que matéria e antimatéria devem existir na mesma proporção no Universo, embora a quantidade detectada de ambas esteja longe de ser a mesma. De forma grosseira, é nesse contexto teórico que os físicos estudam as propriedades de neutrinos e antineutrinos.
Embora sejam considerados as segundas partículas mais abundantes do Universo, atrás apenas dos fótons (partículas de luz), os neutrinos são virtualmente imperceptíveis. Não possuem carga elétrica, têm uma massa quase desprezível, deslocam-se a uma velocidade muito próxima à da luz e praticamente não interagem com a matéria. São capazes de simplesmente atravessar corpos enormes, como o planeta Terra, sem alterar seu deslocamento ou sofrer algum efeito perceptível. O Big Bang, a explosão primordial que, segundo a teoria mais aceita, criou o Universo há pouco menos de 14 bilhões de anos, deve ter sido a principal fonte de neutrinos. A atividade solar e os raios cósmicos são as fontes naturais mais conhecidas de neutrinos, que se formam a partir de processos como o decaimento radioativo (quando o núcleo de um átomo estável perde espontaneamente energia e emite partículas ionizadas) e as reações nucleares.
Ruído e informação - A comparação de parâmetros entre partículas e antipartículas só foi possível porque o experimento do Fermilab é um dos poucos no mundo, ao lado do T2K (Tokai to Kamioka) no Japão, capaz de produzir feixes específicos, constituídos apenas de neutrinos ou somente de antineutrinos, com níveis mínimos de contaminação. A maioria das iniciativas científicas trabalha com feixes que são um misto de partículas e antipartículas, limitação que dificulta a obtenção de dados detalhados a respeito do fenômeno da oscilação. “Produzir um sistema que gere partículas em quantidade suficiente para separarmos o ruído da informação é uma de nossas grandes dificuldades”, explica o físico João Coelho, aluno de doutorado da Unicamp que passou um ano no Fermilab com bolsa da FAPESP.
A primeira etapa do experimento Minos consiste em gerar as partículas que os físicos querem estudar. Com esse fim, o Main Injector – um anel de 3,2 quilômetros de circunferência que é um dos seis aceleradores de partículas do Fermilab – produz um pulso de prótons de alta energia destinado a se chocar contra um alvo de grafite. A colisão faz surgirem partículas instáveis, píons e káons, que vão gerar múons e neutrinos. Em seguida, o feixe é direcionado para uma parede que barra suas impurezas. Múons e outras partículas indesejadas são retirados e permanecem apenas os neutrinos do múon.
A segunda parte do experimento é o coração do Minos. O feixe de neutrinos purificado é direcionado para dois detectores subterrâneos, o primeiro a um quilômetro de distância do Fermilab e o segundo a 735 quilômetros, na mina desativada de Soudan, no estado de Minnesota. O detector mais próximo, que foi montado pouco mais de 100 metros abaixo do Fermilab e pesa mil toneladas, verifica a pureza e a intensidade do feixe. Suas medições servem para dar as características centrais do pulso. O detector mais longínquo pesa 6 mil toneladas e se encontra escondido 716 metros abaixo da superfície, numa caverna. Apenas 2,5 milissegundos depois de sair do Fermilab o feixe de neutrinos é detectado em Soudan. “As oscilações dos neutrinos ocorrem durante o percurso feito pelas partículas entre o primeiro e o segundo detector”, explica o físico Ricardo Gomes, da Universidade Federal de Goiás, que também participa do Minos.
Ao medirem pela primeira vez o desaparecimento de antineutrinos do múon, os cientistas do Fermilab inicialmente acharam que as oscilações dessas antipartículas e de suas partículas poderiam ser distintas, como está insinuado no artigo da PRL. Agora, com mais dados analisados, a equipe do Minos acredita que esse parâmetro seja igual para neutrinos e antineutrinos. “A física é uma ciência essencialmente experimental”, comenta Marcelo Guzzo, físico teórico da Unicamp que estuda neutrinos. “Qualquer resultado deve ser confirmado por vários grupos antes de termos a palavra definitiva”, diz Orlando Peres, outro especialista no tema, também da Unicamp. Segundo a física Renata Zukanovich Funchal, da USP, flutuações estatísticas são frequentes em experimentos com altas energias:“Por isso, devemos ter cautela quando encontramos resultados que não conseguimos compreender”.
Fonte: FAPESP (Pesquisa)

sexta-feira, 9 de setembro de 2011

Isolando pedaços de luz

Ondas possuem picos e vales, sejam elas as ondas do mar ou as ondas eletromagnéticas.
pulsos no ultravioleta, visível e infravemelho próximo
© Thorsten Naeser (pulsos no ultravioleta, visível e infravemelho)
Quando duas ondas, com diferentes comprimentos de onda, se sobrepõem precisamente, esses padrões de picos e vales se tornam mais complexos e menos repetitivos.
Eventualmente, na sequência da interação, não haverá mais nenhum ciclo, apenas um ponto isolado, apontando em alguma direção específica.
Mas Adrian Wirth e seus colegas do Instituto Max Planck de Óptica Quântica, na Alemanha, acabam de confinar um feixe de luz de grande espectro em pulsos que são mais curtos do que um único ciclo óptico.
A luz original é um feixe de laser branco, que contém comprimentos de onda que vão do infravermelho próximo ao ultravioleta, passando pelo espectro visível, uma espécie de arco-íris.
Esse laser branco é dirigido para o "sintetizador luminoso", o novo aparato criado pelos pesquisadores. De forma similar a um sintetizador de som, que superpõe as ondas sonoras de diferentes frequências para criar sons e ritmos diferentes, o sintetizador de luz superpõe ondas ópticas de diferentes cores e fases para criar vários formatos de onda. Os feixes são visualizados com a ajuda de vapor de nitrogênio.
protótipo do sintetizador de campo luminoso
© Thorsten Naeser (protótipo do sintetizador de campo luminoso)
O resultado é um pacote único de luz, mais curto do que uma onda completa da luz.
Essa "luz sem ciclo" compacta todas as interações entre os diversos comprimentos de onda em um único ponto luminoso.
Essa aplicação cria deverá viabilizar o estudo da dinâmica dos elétrons de uma forma que não era possível até agora, porque essas alterações eletrônicas acontecem em escalas temporais muito pequenas.
Isso permitirá, por exemplo, que os cientistas acompanhem os detalhes das reações químicas, hoje basicamente restritas ao "antes e depois" da própria reação.
A produção de transientes ópticos de sub-ciclo abre novas perspectivas para dirigir o movimento dos elétrons em escala atômica com a força elétrica da luz, assim como para conduzir complexas dinâmicas nas camadas de valência de moléculas.
Essa ferramenta será crucial para o desenvolvimento da chamada fotossíntese artificial, que depende da compreensão detalhada das reações químicas que os fótons do Sol induzem nas plantas, que possibilitará criar uma nova fonte de energia limpa, de alta eficiência e totalmente renovável.
No primeiro experimento realizado usando esse processo, os cientistas arrancaram o elétron da camada mais externa de um átomo do gás criptônio. O processo levou 700 attossegundos - o processo mais rápido já induzido opticamente até hoje.
Fonte: Science