segunda-feira, 2 de janeiro de 2012

Sistema quântico é meio som e meio matéria

Físicos estão propondo um experimento para observar uma nova entidade quântica, um híbrido de um elétron e uma vibração quântica da rede atômica de um cristal.

fóniton

© C. Tahan/Laboratory for Physical Sciences (fóniton)

Na imagem acima as setas brancas descrevem um fónon, um quantum de som, em termos dos efeitos de deslocamento que ele induz sobre os átomos da rede atômica de um cristal.

As cores mostram o estado quântico de um elétron "doador", pertencente a um átomo de fósforo, em termos da probabilidade da presença do elétron em qualquer ponto.

Segundo a nova teoria, esses dois estados se conectam para formar um híbrido, um fóniton, um sistema quântico artificial resultado de um fónon e um elétron, ou seja, um fóniton é meio som e meio matéria.

O híbrido que poderá ser encontrado em uma nanoestrutura cristalina  poderá ser útil nas pesquisas dos computadores quânticos.

A estrutura quântica poderá ainda funcionar como um sensor magnético, eventualmente mais preciso do que aquele proposto para o microscópio feito de diamante.

"O fóniton pode melhorar as ferramentas atuais de manipulação das vibrações quantizadas em sistemas mecânicos em nanoescala, ajudando-nos a entender a natureza do som e do calor, além de servir como componente básico em novos sistemas quânticos artificiais em dimensões macroscópicas", propõe o professor Charles Tahan, da Universidade de Maryland, nos Estados Unidos,

Tahan e seus colegas afirmam que o fóniton poderá ser encontrado em uma pastilha de silício dopada com fósforo. Cada átomo de fósforo substitui um átomo de silício, mas fica com um elétron sobrando, que pode ser compartilhado.

Se a estrutura for comprimida ou esticada na intensidade correta, o estado fundamental e o estado de mais baixa energia desse elétron terão uma discrepância de apenas alguns meV (milielétron-volts).

Com isso, um fónon será capaz de forçá-lo a mudar de nível, e o elétron poderá emitir um fónon similar quando retornar ao seu estado fundamental.

Mas, para gerar o novo híbrido, é necessário manter o fónon que chega e o elétron doador acoplados por um longo período, dentro de uma coluna do material feita com camadas de silício e germânio.

Como as redes atômicas do silício e do germânio não coincidem perfeitamente, isso gerará uma tensão permanente no silício. Segundo a teoria, isso será suficiente para produzir um fóniton que sobreviva por alguns milissegundos.

Fonte: Physical Review Letters

sábado, 24 de dezembro de 2011

Universo teve 10 dimensões no Big Bang

Um grupo de pesquisadores do High Energy Research Accelerator Organization (KEK), da Universidade de Shizuoka e da Universidade de Osaka revelou que o Universo nasceu com três dimensões espaciais a partir de dez dimensões descrita pela teoria das supercordas.

Universo Primordial

© NASA/Adolf Schaller (Universo Primordial)

A teoria das supercordas descreve que o espaço-tempo tem nove direções espaciais e um sentido temporal.

Segundo o "Modelo Padrão" na cosmologia, o Universo se originou de uma expansão de um ponto invisível minúsculo (singularidade). Esta teoria é fortemente apoiada pela observação da radiação cósmica de fundo e a abundância relativa de elementos. No entanto, uma situação em que o Universo é um ponto minúsculo excede o alcance da teoria geral da relatividade de Einstein, e por isso não foi possível confirmar como o Universo se originou.
Na teoria das supercordas, que é considerada a "teoria de tudo", todas as partículas elementares são representados como vários modos de oscilação das diminutas cordas. Entre os modos de oscilação, há um que corresponde a uma partícula que medeia a gravidade, e, portanto, a teoria geral da relatividade pode ser naturalmente estendida para a escala das partículas elementares.
Portanto, espera-se que a teoria das supercordas permita a investigação do nascimento do Universo. No entanto, o cálculo real tem sido difícil porque a interação entre as cordas é forte, por isso toda a investigação até agora tem sido restrita na indagação de vários modelos.
A teoria das supercordas prevê um espaço com nove dimensões, o que coloca o grande enigma de como isso pode ser consistente com o espaço tridimensional que nós vivemos.
Um grupo de três pesquisadores, Jun Nishimura (professor associado da KEK), Asato Tsuchiya (professor associado da Universidade de Shizuoka) e Sang-Woo Kim (pesquisador da Universidade de Osaka) conseguiu simular o nascimento do Universo, usando um supercomputador para cálculos com base na teoria das supercordas. Isso mostrou que o Universo teve nove dimensões espaciais no início, mas apenas três destas foram submetidas à expansão em algum ponto no tempo.
Neste estudo, a equipe estabeleceu um método para calcular as matrizes de grandes dimensões (no modelo de matriz IKKT), que representam as interações de cordas.

Nos primordios do Universo o espaço é de fato estendido em nove direções, mas, em seguida, em algum momento apenas três dessas direções começam a expandir-se rapidamente. Este resultado demonstra, pela primeira vez, que o espaço tridimensional emerge a partir do espaço nonodimensional que a teoria das supercordas prevê.
Este cálculo foi realizado por simulação numérica com auxílio do supercomputador Hitachi SR16000 do Instituto Yukawa de Física Teórica da Universidade de Kyoto, que possui um desempenho teórico de 90,3 TFLOPS (Teraflops).
O estabelecimento de um novo método para analisar a teoria das supercordas por intermédio de computadores abre a possibilidade de aplicar essa teoria a diversos problemas. Por exemplo, agora deve ser possível fornecer uma compreensão teórica da inflação que se acredita ter ocorrido no início do Universo, e também a expansão acelerada do Universo.

Espera-se que a teoria das supercordas continuará evoluindo e desempenhando um papel importante na resolução de problemas em física de partículas, tais como a existência da matéria escura que é sugerida por observações cosmológicas, e a partícula de Higgs, que está prestes a ser descoberta pelos experimentos do LHC.

Fonte: High Energy Research Accelerator Organization

quinta-feira, 22 de dezembro de 2011

Descoberta nova partícula subatômica

O Grande Colisor de Hádrons (LHC), acelerador de partículas engajado na busca pelo bóson de Higgs, encontrou uma variedade mais pesada de uma partícula subatômica descoberta inicialmente um quarto de século atrás.

This is an offline reconstructed event from the GRID, showing tracks from the Inner Tracking System and the Time Projection Chamber of ALICE.

© LHC (íons pesados gerados no LHC)

A nova partícula, um bóson denominado Chi-b(3P), foi descoberta por intermédio da colisão de prótons.

Mas embora não se acredite que o bóson de Higgs seja feito de partículas menores, o Chi-b(3P) compreende duas partículas relativamente pesadas: o quark bottom e seu antiquark. Eles são ligados pela denominada força forte, que também faz os núcleos atômicos ficarem unidos. A Chi-b(3P) é uma versão mais pesada de uma partícula observada pela primeira vez cerca de 25 anos atrás.

A Chi-b(3P) é uma partícula que foi prevista por muitos teóricos, mas não foi observada em experimentos anteriores.

Correntes de prótons são disparadas em direções opostas e paralelas no túnel. Os feixes são, então, subjugados por poderosos ímãs de forma que alguns dos prótons colidam, alinhados com detectores para registrar os destroços subatômicos resultantes.

A teoria por trás do bóson é que a massa não deriva das partículas. Ao invés disso, vem de um bóson que interage fortemente com algumas partículas e menos, quando interage, com outras. Encontrar a Chi-b(3P) será um teste futuro para a potência do LHC, que se tornou o maior colisor de partículas do mundo, quando foi concluído, em 2008.

"Nossas novas medições são uma grande forma de testar cálculos teóricos das forças que atuam em partículas fundamentais, e nos levará mais perto do entendimento de como o Universo se mantém unido", explicou Miriam Watson, cientista britânica que trabalha na pesquisa com o CHi-b(3P).

A massa do Chi-b(3P) ou cb(3P) é de cerca de 10,5 GeV. Os outros dois estados, detectados previamente em outras experiências de colisão de partículas, são os estados cb(1P) e cb(2P) com massas de 9,90 e 10,26 GeV respectivamente.

Fonte: CERN

quarta-feira, 14 de dezembro de 2011

Sinais da existência do bóson de Higgs

A organização europeia para a pesquisa nuclear CERN, através dos experimentos ATLAS e CMS no LHC (Large Hadron Collider) divulgou sinais da existência do bóson de Higgs.

representação de sinal da existência do bóson de Higgs

© CERN (representação de sinal da existência do bóson de Higgs)

Seus resultados são baseados na recente análise de dados, mas não o suficiente para fazer qualquer declaração conclusiva sobre a existência ou não da elusiva partícula de Higgs. A principal conclusão é que de acordo com o Modelo Padrão para o bóson de Higgs existir, é mais provável que possua uma massa restrita à faixa de 116-130 GeV (gigaelétron-volt) pelo experimento ATLAS e 115-127 GeV pelo experimento CMS. Foram vistos picos de energia nestas regiões em ambos os experimentos na região de massa propícia, mas estes ainda não são relevantes o bastante para reivindicar uma descoberta.
O modelo padrão da física de partículas implica na existência do chamado Campo de Higgs que permeia todo o espaço. As partículas que interagem com este campo mais fortemente experimentam uma resistência maior ao seu movimento e por isso parecem mais pesadas. Algumas partículas, porém, como os fótons não interagem com o campo e por isso não possuem massa.

Os bósons de Higgs, se eles existem, têm uma vida muito curta e podem decair de diferentes maneiras. Caso seja produzido a partir das bilhões de colisões no LHC, o bóson rapidamente se transformará em partículas de massa menor e mais estáveis. Serão essas partículas os indícios que poderão comprovar a sua existência, que aparecerão como ligeiras variações em gráficos produzidos pelos detectores.

Dados do ATLAS e do CMS foram analisados em alguns canais de decaimento, e os experimentos puderam gerar pequenos excessos na região de baixa massa que ainda não foram excluídos.

Porém, nenhum desses excessos observados possuem um significado estatístico razoável. Entretanto, foram encontradas evidências da existência da partícula no intervalo de massa entre 124 e 126 GeV - cerca de 130 vezes mais pesado do que os prótons encontrados no núcleo dos átomos. É muito cedo ainda para dizer se o ATLAS e o CMS descobriram o bóson de Higgs, mas algumas conclusões e números apresentados proporcionaram grande interesse da comunidade da física de partículas.

O excesso de massa encontrado em torno de 125 GeV pode caracterizar a existência do bóson de Higgs, mas também poderia ser uma flutuação.

Não pode ser excluída também a presença da partícula entre 115 e 127 GeV por causa de modestos eventos de excesso de massa nessa região. O Modelo Padrão é a teoria que descreve o comportamento das partículas fundamentais e as forças que atuam entre elas. Esse modelo descreve a matéria ordinária, a matéria constituinte do nosso Universo visível. Porém o Modelo Padrão não descreve 96% do Universo que é invisível (matéria escura e energia escura). Um dos principais objetivos do programa de pesquisa do LHC é ir além do Modelo Padrão, e o bóson de Higgs é fundamental para ultrapassar essa fronteira.

O Modelo Padrão de Higgs confirmaria uma teoria colocada na década de 1960, mas existem outras formas possíveis que o bóson de Higgs poderia existir integrando teorias e indo além do Modelo Padrão. Este modelo poderia ainda apontar o caminho para uma nova física, através de sutilezas nesse comportamento que só emergiriam depois de se estudar uma grande quantidade de decaimentos de partículas de Higgs.

Caso se comprove que o Bóson de Higgs não exista, a teoria do Modelo Padrão teria de ser reescrita. Isso poderia abrir caminho para novas linhas de pesquisa, que poderão se tornar revolucionárias na compreensão do Universo.

Fonte: CERN

sexta-feira, 2 de dezembro de 2011

Neutrinos roubam a cena mais uma vez

Os neutrinos voltam à cena com os primeiros resultados do experimento Double Chooz, colaboração internacional, com participação brasileira, que tem por objetivo observar o seu estranho comportamento.

ilustração do sumiço dos neutrinos

© Fermilab (ilustração do sumiço dos neutrinos)

O experimento mostrou, com sucesso, o curioso desaparecimento de neutrinos e conseguiu encontrar um valor para o parâmetro físico que explica esse fenômeno.

Neutrinos são partículas subatômicas sem carga que de tão pequenas conseguem passar através de sólidos sem causar alterações. De fato, somos atravessados por neutrinos emitidos pelo Sol toda hora.

Existem três tipos de neutrinos: os do elétron, do tau e do múon. Recentemente, descobriu-se que essas partículas têm a curiosa propriedade de se transformar uma na outra durante sua propagação.

Os neutrinos também são produzidos, artificialmente, durante a fissão do urânio em reatores nucleares ou em aceleradores, como o LHC (Grande Colisor de Hádrons). Desde março deste ano, um detector de neutrinos do elétron está em funcionamento na usina de Chooz, na França, medindo as partículas que são emitidas e as que chegam a 1 km do reator.

usina nuclear de Chooz

© Double Chooz (usina nuclear de Chooz)

Depois de 100 dias de medição, os pesquisadores envolvidos no projeto observaram o desaparecimento dos neutrinos do elétron, o que significa que, em sua viagem do reator até o ponto onde está localizado o detector, eles devem ter se transformado em neutrinos do tau ou do múon, não identificáveis pelo equipamento usado.

Em reunião realizada no Centro Brasileiro de Pesquisas Físicas (CBPF) em outubro, pesquisadores do mundo inteiro compararam a quantidade de partículas emitidas pelo reator com o número de partículas que sumiram e chegaram ao valor mais preciso já obtido até hoje para o chamado “ângulo de mistura teta 13” (lê-se ‘um três’), um importante parâmetro envolvido na transformação dos neutrinos em curtas distâncias.

Alguns experimentos com aceleradores, como o japonês T2K, recentemente sugeriram valores para o teta 13, mas não com a precisão de 92% obtida pelo Double Chooz. “Quando falamos desse ângulo de mistura, estamos falando de medir algo muito pequeno, por isso sempre foi muito difícil encontrar esse valor”, conta o físico João dos Anjos, coordenador da equipe do CBPF no projeto.

A medida precisa do teta 13 é necessária para se chegar ao valor de outra incógnita de nome complicado na física de partículas, a chamada violação de carga paridade, que pode ajudar a explicar o mistério do sumiço da antimatéria, prevista na teoria do Big Bang sobre a origem do Universo.

E o fim desse mistério pode estar próximo. Em meados do ano que vem, o Double Chooz já terá um ano inteiro de medições, o que pode tornar o valor de teta 13 mais preciso ainda.

A medida do teta 13 é necessária para se chegar ao valor de uma incógnita da física que pode ajudar a explicar o mistério do sumiço da antimatéria

Esses resultados devem ser apresentados durante o congresso de Neutrinos 2012 em julho, em Tóquio, Japão, e espera-se que eles ajudem os pesquisadores do experimento T2K a encontrar o valor do parâmetro que pode explicar o sumiço da antimatéria.

Fonte: Ciência Hoje

domingo, 27 de novembro de 2011

Transístor quântico diminui consumo de energia

Um avanço demonstrado por pesquisadores da IBM e do Instituto Politécnico Federal de Lausanne, na Suíça, através dos fenômenos quânticos será possível diminuir o consumo de energia dos equipamentos eletrônicos por um fator de 100.

ilustração de um transistor quântico

© IBM (ilustração de um transístor quântico com nanotubos)

Como o grande limitador ao aumento de velocidade dos processadores é justamente o elevado consumo de energia, econsequentemente o calor dissipado por eles, é de se esperar um aumento equivalente na velocidade de processamento.

Recentemente, a IBM anunciou uma tecnologia que usa metal líquido para retirar calor dos processadores, afirmando que isso permitiria colocar um supercomputador atual dentro de um celular em breve.

O segredo está em um novo tipo de transístor, o elemento fundamental de toda a eletrônica, chamado Túnel-FET, ou TFET.

O termo túnel se refere ao fenômeno do tunelamento quântico, pelo qual uma partícula consegue atravessar uma barreira física - este fenômeno já é largamente utilizado, por exemplo, nos microscópios eletrônicos de tunelamento.

A tecnologia atual é baseada nos transistores de efeito de campo (FET, da sigla em inglês), onde um fluxo de elétrons ativa ou desativa o transístor - um fluxo de bilhões de elétrons, que esquenta tudo por onde passam.

No transístor, duas câmaras são separadas por uma barreira de energia. Na primeira, uma multidão de elétrons fica esperando quando o transístor está desligado. Quando é aplicada uma tensão, eles cruzam a barreira de energia, ativando o transístor. É o que se chama de injeção termal.

Ocorre que alguns elétrons acabam cruzando essa barreira antes da hora, mesmo que aparentemente não tivessem energia para tanto. Esse é o efeito túnel, que sempre atrapalhou o funcionamento dos transistores.

Estreitando a barreira do transístor torna-se possível amplificar o efeito quântico e passar a basear o funcionamento do transístor inteiro nesse tunelamento, que é a chamada injeção por tunelamento. A energia necessária para que os elétrons cruzem a barreira é reduzida drasticamente.

"Substituindo o princípio do transístor de efeito de campo tradicional pelo efeito túnel, pode-se reduzir a tensão dos transistores de 1 volt para 0,2 volt," afirmou o Dr. Adrian M. Ionescu, que está desenvolvendo o Túnel-FET juntamente com Heike Riel.

Sua adoção é viável, uma vez que os processadores poderão ser construídos com FETs e Túnel-FETs convivendo no mesmo chip.

"Os protótipos atuais foram construídos em ambiente pré-industrial. Nós podemos razoavelmente esperar vê-los em produção em massa por volta de 2017," disse Ionescu.

Fonte: Nature

sexta-feira, 18 de novembro de 2011

Luz gerada pelo vácuo

Um experimento, previsto há mais de 40 anos,  produziu luz a partir do vácuo.

ilustração do efeito Casimir dinâmico

© Philip Krantz/ U. Chalmers (ilustração do efeito Casimir dinâmico)

O grupo formado por Christopher Wilson e seus colegas da Universidade Chalmers, na Suécia, conseguiu capturar fótons que oriundos do vácuo quântico, aparecendo e desaparecendo continuamente.

O experimento é baseado num dos mais estranhos e importantes princípios da mecânica quântica: o princípio de que o vácuo não é um vazio "repleto de nada".

Na verdade, o vácuo é composto de partículas que estão flutuando continuamente entre a existência e a inexistência: elas surgem do vácuo quântico e têm uma vida efêmera e desaparecem novamente.

Seu tempo de vida é tão curto que esses fótons são mais comumente conhecidos como partículas virtuais.

O que os pesquisadores fizeram foi obter alguns desses fótons e dar-lhes a eternidade em termos quânticos, ou seja, transformá-los em fótons reais, luz que pode ser detectada por um sensor e medida.

Para capturar os fótons virtuais, os pesquisadores simularam um espelho movendo-se a uma fração significativa da velocidade da luz. O fenômeno, conhecido como efeito de Casimir dinâmico, foi observado experimentalmente pela primeira vez.

"Como não é possível fazer um espelho mover-se rápido o suficiente, nós desenvolvemos outra técnica para obter o mesmo efeito," explica o professor Per Delsing, coordenador da equipe. "Em vez de variar a distância física até um espelho, nós variamos a distância elétrica de um circuito elétrico que funciona como um espelho para microondas".

O espelho consiste em um sensor quântico conhecido como SQUID (Superconducting Quantum Interference Device), que é extremamente sensível a campos magnéticos.

Alterando a direção do campo magnético vários bilhões de vezes por segundo, os cientistas fizeram o espelho vibrar a uma velocidade equivalente a 25% a velocidade da luz.

Isto é cinco vezes mais do que a tentativa anterior, quando os cientistas afirmaram pela primeira vez ter produzido luz a partir do nada - aquele artigo, contudo, ainda não havia sido aceito para publicação em uma revista científica, o que significa que outros cientistas não haviam avaliado o experimento.

"O resultado foi que os fótons apareceram em pares do vácuo, e nós pudemos medi-los na forma de radiação de microondas," disse Delsing, ou seja, exatamente como a teoria previa.

O que acontece durante o experimento é que o espelho transfere uma parte de sua energia cinética para os fótons virtuais, o que os ajuda a se "materializarem".

Segundo a mecânica quântica, vários tipos de partículas estão presentes no vácuo quântico. Os cientistas acreditam que foram capazes de detectar os fótons porque eles não têm massa.

"É necessário relativamente pouca energia para excitá-los e tirá-los do estado virtual. Em princípio, pode-se criar outras partículas do vácuo, como elétrons e prótons, mas isso vai exigir um bocado mais de energia," disse Delsing.

Agora os cientistas querem estudar em detalhes esses fótons emergentes: como eles surgem aos pares, os cientistas acreditam que eles possam ser úteis para o desenvolvimento de computadores quânticos, com seus qubits de partículas entrelaçadas.

Fonte: Nature

sexta-feira, 4 de novembro de 2011

Leis da Física variam ao longo do Universo

Uma pesquisa afirma que as leis da natureza podem variar ao longo do Universo.

variação da constante alfa

© John Webb (variação da constante alfa)

O gráfico mostra medições feita pelo telescópio Keck e VLT (Very Large Telescope). Os quadrados são dados do VLT, os círculos do Keck, e os triângulos são quasares observados em ambos.

O estudo concluiu que uma das quatro forças fundamentais, o eletromagnetismo, parece variar de um lugar para outro.

O eletromagnetismo é medido por meio da chamada constante de estrutura fina, simbolizada pela letra grega alfa (α).

Esta constante é uma combinação de três outras constantes: a velocidade da luz (c), a carga do elétron (e) e a constante de Planck (h), onde α = e2/hc.

O resultado é cerca de 1/137, um número sem dimensão, o que a torna ainda mais fundamental do que as outras constantes, como a gravidade, a velocidade da luz ou a carga do elétron.

Em termos gerais, a constante alfa mede a magnitude da força eletromagnética, ou seja, a intensidade das interações entre a luz e a matéria.

Agora, John Webb e pesquisadores das universidades de Nova Gales do Sul e Swinburne, na Austrália, e Cambridge, no Reino Unido, mediram o valor de alfa em cerca de 300 galáxias distantes, usando dados do VLT do ESO, no Chile.

Observaram que numa direção, a partir de nossa localização no Universo, a constante alfa vai ficando gradualmente mais fraca, e gradualmente mais forte na direção oposta.

Isso mostra uma espécie de "eixo preferencial" para o Universo, de certa forma coincidente com medições anteriores que deram origem à teoria do chamado Fluxo Escuro, que indica que uma parte da matéria do nosso Universo estaria vazando por uma espécie de "ralo cósmico", sugada por alguma estrutura de um outro universo.

A descoberta, se confirmada, terá profundas implicações para o nosso entendimento do espaço e do tempo, e viola um dos princípios fundamentais da teoria da Relatividade Geral de Einstein, o princípio da equivalência de Einstein.

Essas violações são de fato esperadas por algumas “teorias de tudo”, que tentam unificar todas as forças fundamentais. Uma alteração suave e contínua de alfa pode implicar que o Universo seja muito maior do que a parte dele que conseguimos observar, possivelmente infinito.

O professor Webb afirma que esta descoberta também pode dar uma resposta muito natural para uma questão que tem intrigado os cientistas há décadas: por que as leis da física parecem tão bem ajustadas para a existência da vida?

"A resposta pode ser que outras regiões do Universo não são tão favoráveis à vida como nós a conhecemos, e que as leis da física que medimos em nossa parte do Universo são meramente 'regras locais'. Neste caso, não seria uma surpresa encontrar a vida aqui," afirma o cientista.

Isto porque basta uma pequena variação nas leis da física para que, por exemplo, as estrelas deixem de produzir carbono, o elemento básico da vida como a conhecemos.

Para chegar às suas conclusões, os cientistas usaram a luz de quasares muito distantes como faróis.

O espectro da luz que chega até nós, vinda de cada quasar, traz consigo sinais dos átomos nas nuvens de gás que a luz atravessou em seu caminho até a Terra.

Isto porque uma parte da luz é absorvida por estes átomos, em comprimentos de onda específicos que revelam a identidade desses átomos.

Essas linhas de absorção são então comparadas com as mesmas assinaturas encontradas em laboratório aqui na Terra para ver se a constante alfa é mesmo constante.

Os resultados mostraram que não, que alfa varia ao longo de um eixo que parece atravessar o Universo, assim como um eixo magnético atravessa a Terra.

Se há variação em uma das constantes, é de se esperar que as outras constantes fundamentais também variem.

Portanto, é preciso projetar experimentos que possam verificar variações na gravidade, na carga do elétron ou na velocidade da luz.

Fonte: Physical Review Letters

sábado, 29 de outubro de 2011

Rumo a estrela artificial controlada

Usando 60 raios lasers de alta potência, combinados para atingir uma cápsula minúscula, físicos produziram um plasma com condições de densidade de energia extremas.

© LLNL (Omega Laser)

Essas condições incluem uma pressão de 100 bilhões de atmosferas, uma temperatura de 200 milhões Kelvin e uma densidade 20 vezes maior que a do ouro.

Antes desse super disparo de laser, essas condições só podiam ser encontradas no núcleo de planetas gigantes, como Júpiter e Saturno, ou no interior das estrelas.

O experimento é um dos caminhos rumo à construção de uma "estrela artificial" controlada, onde a fusão nuclear poderá ser explorada para a geração sustentável de energia.

Muitos físicos acreditam que a fusão nuclear a laser seja a melhor saída para essa fonte de energia limpa.

O laboratório Omega Laser Facility, localizado na Universidade de Rochester, nos Estados Unidos, onde o recorde acaba de ser batido, é um dos que trabalham nesse sentido.

Os pesquisadores normalmente usam aceleradores para estudar as reações nucleares.

Neste laboratório, a equipe usou uma abordagem diferente, criando um plasma quente e denso, no qual elétrons são arrancados dos átomos para criar um plasma, o quarto estado da matéria.

O estado de plasma está presente nas estrelas, nos relâmpagos e até nas lâmpadas fluorescentes, na verdade 99% do Universo visível é composto de plasma.

Para obter esse plasma, todos os 60 feixes de laser do Laboratório Ômega foram dirigidos simultaneamente para a superfície de uma cápsula de vidro de um milímetro de diâmetro, cheia de isótopos pesados de hidrogênio - deutério e trítio.

laser sobre uma esfera de vidro com deutério e trítio

© LLNL (laser sobre uma esfera de vidro com deutério e trítio)

Os feixes de laser geram um plasma em rápida expansão, de alta temperatura, na superfície da cápsula, fazendo-a implodir.

Esta implosão, por sua vez, cria um plasma extremamente quente (100 milhões Kelvin) de íons de deutério e trítio, e de elétrons, dentro da cápsula.

Uma pequena fração dos íons de deutério e trítio se fundem, um processo que gera um nêutron viajando a um sexto da velocidade da luz, com cerca de 14,1 milhões de elétron-volts de energia - em comparação, a combustão de uma substância química comum, como a madeira ou o carvão, gera cerca de 1 elétron-volt de energia.

Conforme esses nêutrons energizados escapam da cápsula que está implodindo, uma pequena fração colide com os íons de deutério e trítio.

A partir dessas colisões, bastante raras, e da correspondente transferência de energia dos nêutrons para os íons, os pesquisadores podem obter uma medição precisa do processo de fusão nuclear.

Fonte: Physical Review Letters

Os buracos Kondo na supercondutividade

Pesquisadores usaram um composto de urânio, rutênio e silício (URu2Si2), que é conhecido como um "sistema de férmions pesados"  para obter efeitos sobre a supercondutividade, a capacidade de alguns materiais de transportar correntes elétricas sem resistência.

efeitos dos buracos Kondo na supercondutividade

© Davis Group (efeitos dos buracos Kondo na supercondutividade)

Os resultados revelaram como a substituição de apenas alguns átomos pode causar perturbações generalizadas das delicadas interações que dão ao material suas propriedades únicas, incluindo a supercondutividade.

É um sistema onde os elétrons que trafegam através do material param periodicamente para interagir com os elétrons localizados nos átomos de urânio que compõem a estrutura do cristal.

Essas interações magnéticas desaceleram os elétrons, fazendo com que pareça que eles têm uma massa extra, mas também contribui para a supercondutividade do material.

Em 2010, Séamus Davis, físico do Laboratório Nacional Brookhaven, dos Estados Unidos, e um grupo de colaboradores visualizaram esses férmions pesados pela primeira vez, usando a técnica de obtenção de imagens espectroscópicas por microscopia de tunelamento (STM-SI), que mede o comprimento de onda dos elétrons do material em relação à sua energia.

A ideia deste novo estudo foi "destruir" o sistema de férmions pesados, substituindo o tório por alguns dos átomos de urânio. O tório, ao contrário do urânio, não é magnético, portanto, em teoria, os elétrons deveriam ser capazes de se mover livremente ao redor dos átomos de tório, em vez de parar para os breves encontros magnéticos que têm com cada átomo de urânio.

Estas áreas onde os elétrons deveriam fluir livremente são conhecidas como "buracos Kondo", uma homenagem ao físico Jun Kondō que descreveu o espalhamento dos elétrons condutores devido as impurezas magnéticas.

Os elétrons fluindo livremente podem auxiliar na corrente elétrica sem resistência, mas os buracos Kondo acabam se tornando bastante destrutivos para a supercondutividade.

Trabalhando com amostras de tório dopado, feitas pelo físico Graeme Luke, na Universidade McMaster, a equipe de Davis usou sua ferramenta STM-SI para visualizar o comportamento dos elétrons.

Foram identificados inicialmente os locais dos átomos de tório na rede, e consequentemente as funções de onda da mecânica quântica dos elétrons em torno desses locais.

As medições confirmaram várias das previsões teóricas, incluindo a ideia proposta no ano passado pelo físico Dirk Morr, da Universidade de Illinois, de que as ondas de elétrons iriam oscilar descontroladamente ao redor dos buracos Kondo.

Assim, destruindo os férmions pesados, que devem emparelhar-se para o material agir como um supercondutor, os buracos Kondo interrompem a supercondutividade do material.

A técnica de visualização também revelou como apenas alguns poucos buracos Kondo podem provocar uma destruição generalizada.

O que os cientistas descobriram ao estudar esse exótico sistema de férmions pesados pode também valer para o mecanismo de outros supercondutores que operam em temperaturas mais altas.

Fonte: Proceedings of the National Academy of Sciences

sábado, 22 de outubro de 2011

Usando o Sol para testar teorias alternativas

Um grupo de físicos portugueses está propondo que o Sol seja usado para testar algumas teorias alternativas à Teoria da Relatividade Geral de Einstein.

Sol

© NASA/SOHO (Sol)

Jordi Casanellas e seus colegas da Universidade Técnica de Lisboa afirmam que uma teoria proposta há mais de um século por Arthur Eddington não foi totalmente descartada pelas observações recentes dos neutrinos solares e das ondas acústicas solares.

E, segundo eles, uma variante da teoria de Eddington pode ajudar a resolver algumas das deficiências das teorias atuais.

A Teoria da Relatividade Geral, que descreve a gravidade como a curvatura do espaço-tempo por corpos celestes de grande massa, tem passado por todos os testes aos quais tem sido submetida ao longo dos anos. Mas existem problemas para serem resolvidos.

Além da bem conhecida dificuldade de unificação com a mecânica quântica e das ainda pendentes explicações para a matéria e a energia escuras, há o problema bem mais sério das singularidades, onde as leis da física simplesmente se esfacelam.

Em 2010, Máximo Bañados (Universidade Católica do Chile) e Pedro Ferreira (Universidade de Oxford) propuseram uma variante da teoria de Eddington que adiciona um termo gravitacional repulsivo para a teoria da relatividade.

Mas o que parece ser a simples adição de mais um membro a uma equação tem um efeito devastador sobre o entendimento mais geral do cosmo.

Esse termo gravitacional repulsivo não apenas elimina a necessidade das singularidades, ele descarta a formação dos buracos negros e a ideia de que o Universo teria surgido de um Big Bang.

Quando tenta interpretar um campo gravitacional em um vácuo, essa teoria inspirada em Eddington é equivalente à Teoria da Relatividade. Mas ela prevê efeitos diferentes para a gravidade agindo no interior da matéria.

O lugar ideal para testar essas diferenças seria o interior de estrelas de nêutrons. Embora se acredite que estrelas de nêutrons possam ativar o vácuo quântico, não se sabe o suficiente a respeito delas para comparar as duas teorias. Por exemplo, recentemente foi encontrada uma estrela de nêutrons cuja existência parecia ser impossível.

O Sol é uma fonte de gravidade muito menos extrema do que uma estrela de nêutrons, porém o funcionamento do seu interior já é razoavelmente bem descrito pelos modelos solares.

O grupo de Casanellas calculou que, mesmo em sua forma newtoniana, não-relativística, a teoria derivada de Eddington prevê diferenças quantificáveis nas emissões solares em comparação com a teoria gravitacional padrão, desenvolvida por Einstein.

O termo gravitacional repulsivo na teoria de Bañados e Ferreira seria equivalente a dar um valor diferente para a constante gravitacional no interior da matéria.

E intensidades diferentes da gravidade no interior do Sol devem resultar em diferenças em sua temperatura interna, uma vez que se assume que o Sol está em equilíbrio hidrostático, ou seja, a pressão para dentro de sua massa é equilibrada pela pressão para fora gerada pelas reações de fusão nuclear em seu interior.

Uma temperatura mais elevada implica uma maior taxa de fusão nuclear, implicando em uma maior taxa de emissão de neutrinos solares, algo diretamente mensurável.

Uma força da gravidade maior no interior do Sol propicia numa variação na sua distribuição de densidade, o que deve modificar a propagação das ondas acústicas em seu interior, podendo ser medida com as técnicas da heliossismologia.

Todos esses dados já estão disponíveis. Contudo, eles colocam sérias restrições à nova teoria, impondo limites muito estreitos para seus valores.

Um teste mais rigoroso exigiria melhorias nos modelos solares, incluindo a abundância de hélio na superfície do Sol, ou medições mais precisas dos fluxos de neutrinos.

Paolo Pani, um dos membros da equipe, sugere um teste alternativo, aqui na Terra mesmo.

Para ele, tanto a teoria derivada de Eddington, quanto outras teorias alternativas da gravidade, poderiam ser testadas medindo a atração gravitacional entre uma esfera de metal inserida em um buraco no solo e a massa da Terra ao seu redor.

A ideia é fazer um buraco onde coubesse apenas a esfera, e nada mais, com uma precisão gigantesca, de forma que a medição mostrasse apenas a intensidade da gravidade no interior da matéria, e não no vazio ao seu redor.

Entretanto, tal experimento apresenta desafios consideráveis.

Fonte: Physics World

sábado, 8 de outubro de 2011

A pura luz do laser de raios X

Pesquisadores analisaram os primeiros resultados do LCLS (Linac Coherent Light Source), uma fonte de laser de raios X recém-inaugurada na Universidade de Stanford, nos Estados Unidos.
estação de espalhamento de raios X ressonante
© SLAC (estação de espalhamento de raios X ressonante)
Na medida da coerência do laser, que é o grau em que as ondas de luz são sincronizadas, descobriu-se que o LCLS produz a mais coerente radiação de raios X já medida.
Com um feixe de tão alta qualidade, a máquina é capaz de determinar a estrutura atômica de materiais com um nível de precisão sem precedentes.
Isto será útil em campos tão diversos quanto a descoberta de novos medicamentos, a engenharia de materiais e até a arqueologia.
Desde a invenção do maser, em 1957 - o antecessor de micro-ondas do raio laser de luz visível - cientistas têm desenvolvido lasers com comprimentos de onda cada vez mais curtos, aplicando-os a uma crescente variedade de propósitos.
Mas fazer lasers com comprimentos de onda muito curtos é um desafio. Para que uma fonte de luz seja um laser, a maioria dos seus fótons deve ser coerente, e eles devem oscilar em sincronia.
Uma alta coerência significa que a luz vai difratar mais precisamente, o que, para um feixe de raios X, significa imagens mais nítidas da estrutura atômica que está sendo estudada.
Feixes de laser também têm vários modos de oscilação, assim como instrumentos de cordas e tambores, e o feixe ideal tem todos os seus fótons contribuindo para um único modo.
detector Linac Coherent Light Source
© SLAC (detector Linac Coherent Light Source)
Quando o LCLS começou a operar, a evidência para uma luz verdadeiramente laser foi a presença de pulsos de raios X brilhantes, monocromáticos e altamente focados.
No entanto, até agora, as estimativas da coerência da luz eram baseadas unicamente em simulações.
Agora, os cientistas mediram na prática um tempo de coerência de 0,55 femtossegundo, o que significa que o pulso tem efetivamente a mesma cor e intensidade durante esse intervalo de tempo, equivalente a uma distância de cerca de 150 nanômetros ao longo da direção do feixe.
Assim, uma amostra de 150 nanômetros de profundidade pode ser iluminada com luz coerente de uma única vez, gerando uma fotografia da amostra com um grande campo de visão, da largura de milhares de átomos.
Ter este nível de coerência significa que a maioria dos fótons está confinada a um único modo espacial.
Cerca de 78% dos fótons do laser de raios X estavam no modo dominante, em comparação com menos de 1% em uma fonte de luz síncrotron de raios X típica.
Um artigo sobre a pesquisa foi publicado na revista Physical Review Letters.
Fonte: SLAC National Accelerator Laboratory

quinta-feira, 6 de outubro de 2011

Resfriamento luminoso

Um grupo internacional de pesquisadores, com participação brasileira, conseguiu pela primeira vez, utilizando um laser, resfriar um nano-objeto mecânico até o seu estado de mais baixa energia possível, a chamada energia de ponto zero.
resfriamento a laser
© Nature (resfriamento a laser)
De acordo com os autores, ao empregar a luz para colocar um sistema mecânico sólido no estado de energia de ponto zero - e no qual ele se comporta de acordo com as leis da mecânica quântica - o estudo abre caminho para o desenvolvimento de detectores de massa e força extremamente sensíveis, além de abrir perspectivas para a realização de experimentos quânticos em sistemas macroscópicos.
O trabalho foi realizado por pesquisadores do Instituto de Tecnologia da Califórnia (Caltech), dos Estados Unidos, em colaboração com uma equipe da Universidade de Viena, na Áustria.
Um dos autores é o brasileiro Thiago Alegre, atualmente professor do Departamento de Física Aplicada da Universidade Estadual de Campinas (Unicamp). Nos últimos três anos, Alegre esteve no Caltech como pós-doutorando, depois de concluir o doutorado na Unicamp, com bolsa da FAPESP.
Com o uso de um laser, o grupo resfriou a microcavidade de um nano-objeto até seu estado de energia de ponto zero. O feito só havia sido alcançado anteriormente em sistemas de armadilhas ópticas contendo poucos átomos.
"Usamos um recurso óptico, o laser, para resfriar um sistema mecânico sólido ao estado de mais baixa energia possível. Isso só havia sido feito com poucos átomos ou íons, mas conseguimos fazê-lo com um sistema composto por bilhões de átomos. O estudo abre caminho para realizar experimentos quânticos em sistemas macroscópicos, o que é um sonho dos cientistas há quase uma década", disse Alegre.
Para o experimento, os cientistas projetaram e fabricaram uma cavidade óptica nanométrica, composta de uma pequena viga feita de silício, na qual buracos da ordem de 200 nanômetros são cuidadosamente posicionados. A estrutura tem dimensões de cerca de 560 nanômetros de largura e 15 mícrons de comprimento. O mícron e o nanômetro são, respectivamente, a milionésima e a bilionésima parte do metro.
"Essa geometria forma uma cavidade óptica onde apenas uma frequência - ou cor - de um laser pode ser confinada. O sistema tem a capacidade de servir como oscilador mecânico, podendo também aprisionar fônons - as partículas associadas com oscilações mecânicas, assim como os fótons estão associados com as oscilações eletromagnéticas, ou luz", explicou.
Por confinar em um mesmo local fótons e fônons, a pequena estrutura intensifica a interação entre vibrações mecânicas e luz. "Trata-se de um sistema optomecânico. A luz que atravessa essa cavidade, carregando informação sobre a amplitude de oscilação do sistema, ou número de fônons, pode ser associada à temperatura desse modo de oscilação", disse Alegre.
Ao escolher cuidadosamente a frequência do laser de excitação, os pesquisadores conseguem extrair energia mecânica por meio da luz que sai da cavidade, resfriando o sistema, segundo o cientista. Com isso, criam uma interface eficiente entre um sistema óptico e um sistema mecânico onde a informação pode fluir de um para outro.
Estabelecer o "diálogo" entre o mundo mecânico e o mundo óptico tem desdobramentos científicos importantes, segundo Alegre. Em outro estudo também publicado na Nature, no início de 2011, o mesmo grupo demonstrou os efeitos do modo mecânico sobre a luz, interação que possibilita em tese a criação de memórias ópticas.
"Já no trabalho que acaba de ser publicado, demonstramos o efeito da parte óptica sobre a parte mecânica. Demonstrando a interação pelos dois lados, abrimos a possibilidade de conseguir um controle muito maior sobre ela", afirmou Alegre.
Um dos recursos utilizados por cientistas para estudar efeitos quânticos em escala macroscópica tem sido os experimentos que utilizam a condensação de Bose-Einstein - uma fase da matéria formada por átomos em temperaturas próximas do zero absoluto.
Mas, segundo Alegre, para se trabalhar dessa maneira, o primeiro passo é levar o sistema ao estado fundamental, isto é, baixar sua temperatura global até poucas dezenas de milikelvins.
"Para chegar ao estado fundamental é preciso trabalhar com as temperaturas próximas de zero kelvin, o que é bastante complexo e caro. No nosso experimento, não baixamos a temperatura global do sistema. Trabalhamos com uma temperatura de cerca de 20 kelvin. Em vez de baixar toda a temperatura do sistema, criamos um caminho óptico para que apenas o modo vibracional chegasse próximo de zero kelvin", explicou.
Segundo Alegre, os cientistas criaram um caminho de fuga para os fônons através da luz. "Aprisionada na cavidade óptica, a luz tenta mudar de cor toda vez que a cavidade se move, absorvendo energia mecânica do sistema, que é assim resfriado", disse.
Fonte: Nature e FAPESP

terça-feira, 4 de outubro de 2011

Qual será o destino final do Universo?

Os americanos Saul Perlmutter, Brian P. Schmidt e Adam G. Riess são os ganhadores do Prêmio Nobel de Física 2011 por seus trabalhos sobre a expansão acelerada do Universo, informou nesta terça-feira a Real Academia de Ciências da Suécia.
8x10.ai
© NASA/ESA (SN 1604 - supernova de Kepler)
Saul Perlmutter, nascido em 1959 nos Estados Unidos,  é astrofísico no Laboratório Nacional Lawrence Berkeley e coordena o Projeto Cosmológico Supernova, na Universidade da Califórnia. Foi eleito membro da Associação Americana para o Avanço da Ciência.
Brian P. Schmidt , nascido também nos Estados Unidos em 1967 e com nacionalidade australiana, é astrofísico do observatório Mount Stromlo da Universidade Nacional da Austrália.
Adam G. Riess, nascido em Washington em 1969, é astrofísico no Instituto Científico de Telescópios Espaciais da Universidade John Hopkins. Foi nomeado membro da Academia Nacional das Ciências dos Estados Unidos.
Saul Permutter, Adam Riess e Brian Schmidt
© AFP (Saul Permutter, Adam Riess e Brian Schmidt)
O prêmio de 10 milhões de coroas suecas, (cerca de R$ 2,8 milhões), será dividido em duas partes. Uma para Perlmutter e, a outra, entre Schmidt e Riess.
O Supernova Cosmology Project, da Universidade de Berkeley, e o High-z Supernova Search Team, da Universidade Nacional da Austrália, estavam mapeando o Universo em busca de suas supernovas (um tipo específico de estrelas no fim de sua vida) mais distantes, para tentar demonstrar que a expansão do Universo estava se desacelerando.
As observações feitas em 1998 por estes astrônomos, associados em duas equipes diferentes, sobre a explosão de supernovas e a análise da luz emitida nessas situações permitiu demonstrar que o Universo cresce de forma acelerada e não cada vez mais devagar, como se achava.
A descoberta da expansão acelerada do Universo foi possível através da observação de um tipo muito especial de supernova: a supernova Ia.
Trata-se da explosão de uma estrela muito antiga e compacta, tão pesada quanto o Sol, mas de tamanho relativamente pequeno, como o da Terra. Uma única supernova pode emitir, durante algumas semanas, tanta luz quanto uma galáxia inteira.
Os dois times de pesquisa descobriram mais de 50 dessas supernova e detectaram que a luz delas era mais fraca do que o esperado, um sinal de que a expansão do Universo estava acelerando.
Embora os resultados contrariassem todas as previsões, ambos os grupos chegaram às mesmas conclusões sobre a aceleração.
Acredita-se que o fenômeno seja causado pela energia escura, que compõe cerca de 70% do Universo e sobre a qual ainda quase não se sabe nada.
As pesquisas realizadas também mostram como as equações da teoria da relatividade geral, desenvolvida em 1915 pelo físico alemão Albert Einstein, estão corretas.
A constante cosmológica foi um recurso usado por Einstein para tentar equacionar a expansão do Universo com apenas a matéria visível disponível.
Antes de morrer, em 1953, Einstein reconheceu a constante cosmológica como um erro. Ele também admitiu que o Universo, de fato, estava se expandindo.
Agora, a constante cosmológica é utilizada para provar o aumento do Universo. Diferente da ideia inicial de Einstein, mas salvando um conceito que era tido como errado há mais de meio século.
No entanto, a descoberta de que essa expansão está se acelerando é espantosa. Se ela continuar acelerando, o Universo  vai acabar em gelo!
Fonte: The Royal Swedish Academy of Sciences

domingo, 2 de outubro de 2011

O Tevatron parou de acelerar partículas

O maior acelerador de partículas dos Estados Unidos, o Tevatron, localizado no estado de Illinois, encerrou suas atividades no dia 30 de setembro de 2011 depois de 25 anos recriando as condições do Big Bang.

Tevatron

© Fermilab (Tevatron)

O Tevatron ficou obsoleto após o aparecimento do Grande Colisor de Hádrons (LHC), um acelerador de partículas mais poderoso, o maior do mundo, construído na fronteira franco-suíça, pelo Centro Europeu de Pequisa Nuclear (CERN), um consórcio de 20 países.
Por causa da crise econômica, dificilmente os Estados Unidos, que já dominaram a área e colheram os louros de descobertas e inovações tecnológicas, serão capazes de reunir os recursos necessários para construir um substituto mais moderno para o Tevatron.
Por isso, físicos americanos se concentrarão em questões internas mais específicas e menos caras. Também trabalharão em conjunto com o CERN em projetos de alta energia, como a busca pelo Bóson de Higgs, batizada de "partícula de Deus".

Os cientistas do Fermilab dizem não poder prever o que os EUA perderão cedendo o domínio da física de alta energia para a Europa. Já os ganhos obtidos com o Tevatron são muito mais fáceis de quantificar. O Tevatron deu contribuições fenomenais para a Física de partículas, cuja principal descoberta foi o quark top em 1995.
Além de aprofundar nosso conhecimento sobre os mistérios fundamentais do Universo, o Tevatron também levou a uma série de avanços concretos. Entre eles está o uso generalizado da geração de imagens por ressonância magnética (MRI) para diagnósticos médicos. Os supercondutores utilizados nos magnetos das máquinas de MRI eram raros e caros demais até que o Fermilab criou uma indústria com o Tevatron, gerando uma demanda de fios de supercondução suficientes para dar a volta na Terra 2,3 vezes.
Atualmente, os cientistas estão construindo uma câmera de energia escura, que será capaz de varrer a galáxia mais rápido do que qualquer outro telescópio. Sua função será descobrir porque a expansão do Universo acelera ao invés de recuar. Eles também trabalham na construção do feixe de neutrinos mais poderoso do mundo, que ajudará a explicar porque o Universo tem mais matéria do que antimatéria e aprofundar nosso conhecimento sobre suas partículas mais abundantes.

cavidades para acelerar partículas de alta intensidade

© Fermilab (cavidades para acelerar partículas de alta intensidade)

Além disso, existe o projeto do acelerador de neutrinos mais intenso do mundo, batizado Projeto X, tornando a melhor máquina para experimentos na fronteira de alta energia.

O feixe de partículas produzira káon, múon, além de neutrinos que tentariam desvendar questões importantes do século 21 na Física: O que aconteceu com a antimatéria? Como unificar todas as forças? Como o Universo surgiu?

Fonte: Fermilab e Veja