terça-feira, 31 de janeiro de 2012

A influência da gravidade no positrônio

Os cientistas David Cassidy e Allen Mills, da Universidade da Califórnia, irão produzir um experimento usando átomos de positrônio.

aparelho utilizado para produção do positrônio

© UC (aparelho utilizado para produção do positrônio)

O positrônio é um átomo exótico, feito de matéria e de antimatéria: um elétron e um pósitron (anti-elétron) ligados um ao outro, mas sem um núcleo.

O pósitron é a antimatéria do elétron, tendo a mesma massa, mas com uma carga positiva. Se um pósitron se encontra com um elétron, os dois se aniquilam, emitindo dois fótons de raios gama.

O que os dois físicos fizeram foi separar ligeiramente o pósitron do elétron em um átomo de positrônio, de forma que essa partícula instável possa resistir à aniquilação por um tempo suficiente para seja possível fazer experiências com ele.

"Usando lasers, nós excitamos o positrônio para aquilo que é conhecido como estado de Rydberg, que torna muito fraca a coesão do átomo, com o elétron e o pósitron muito distantes um do outro," explica Cassidy.

Isso evita que os dois se destruam, dando tempo para que os cientistas façam os experimentos para estudar o comportamento da antimatéria em relação à gravidade.

No estado de Rydberg, o tempo de vida do positrônio aumenta por um fator que varia de 10 a 100.

Mas isto ainda não é suficiente, pois provavelmente são necessários de um fator de 10.000.

"Agora nós pretendemos usar essa técnica para dar um elevado momento angular para os átomos de Rydberg. Isso tornará ainda mais difícil para que os átomos decaiam, e eles poderão viver por até 10 milissegundos," explica Cassidy.

Então, finalmente será possível testar a influência da gravidade sobre a antimatéria, o que será feito observando o movimento do pósitron para ver se a gravidade está curvando esse movimento.

"Se nós descobrirmos que a antimatéria e a matéria não se comportam da mesma forma, será algo muito chocante para o mundo da física," diz o cientista.

A física atual considera que matéria e antimatéria se comportam basicamente do mesmo jeito.

"Esse pressuposto leva à consideração de que as duas deveriam ter sido criadas em quantidades iguais no Big Bang. Mas nós não vemos muita antimatéria no Universo," diz Cassidy.

Se a matéria atrai a antimatéria, então o Universo poderia ter desaparecido em um flash de raios gama logo depois de sua criação. Mas se a antimatéria "cai para cima", ou seja, se possui uma anti-gravidade, algo diferente poderia ter acontecido.

Ou seja, um comportamento desigual entre matéria e antimatéria poderia ser muito relevante, mas também poderia abrir caminhos para explicar a inexistência da antimatéria no Universo atual.

Fonte: Physical Review Letters

quinta-feira, 26 de janeiro de 2012

Criado primeiro laser de raios X atômico

Uma equipe alemã usou o mesmo laboratório que criou o laser de raios X para gerar o primeiro laser de raios X atômico, ou seja, emitido a partir do bombardeamento de átomos com raios X muito poderosos.

laser de raios X atômico

© SLAC (laser de raios X atômico)

A equipe do Grupo de Estudos Avançados do Instituto Max Planck usou o LCLS (Linac Coherent Light Source), uma fonte de raios X recém-inaugurada na Universidade de Stanford, nos Estados Unidos.

Os pulsos de raios X, cada um cerca de um bilhão de vezes mais intenso do que qualquer outro disponível anteriormente, arrancaram elétrons das camadas internas de átomos do gás nobre neônio, preso no interior de uma cápsula.

Quando outros elétrons saltam de suas camadas mais externas para preencher as lacunas, cerca de 1 átomo em cada 50 responde emitindo um fóton na faixa dos raios X, com um comprimento de onda extremamente curto.

Esses raios X secundários foram então "estimulados" na vizinhança de outros átomos de neon para que novos pulsos ultra-curtos de raios X fossem gerados. Isso criou um efeito em cascata que amplificou a luz de raios X secundária cerca de 200 milhões de vezes.

Como os pulsos assim emitidos são coerentes, a emissão forma um laser de raio X extremamente puro.

Esse novo tipo de laser pode ser aplicado para identificar os detalhes das reações químicas ou acompanhar moléculas biológicas em atividade.

Embora o laser de raios X anunciado anteriormente e o novo laser de raios X atômico sejam ambos lasers, eles emitem a luz de forma diferente e com características diferentes.

O LCLS arremessa elétrons de alta energia através de campos magnéticos alternados, gerando pulsos de raios X muito brilhantes e muito mais potentes.

Já o novo laser de raios X atômico, que havia sido previsto na teoria em 1967, tem apenas um oitavo do comprimento de onda e sua cor é muito mais pura.

Essas qualidades vão permitir que ele distinga detalhes ainda não conhecidos de reações químicas muito rápidas, como as da fotossíntese.

O laser de raio X atômico é o mais potente já feito até agora, capaz de esquentar a matéria até cerca de 2 milhões de graus Celsius, mais quente do que a coroa do Sol!

Fonte: Nature

sexta-feira, 13 de janeiro de 2012

Menor unidade de armazenamento magnético

Cientistas da IBM e do instituto de pesquisas alemão CFEL (Center for Free-Electron Laser) construíram atualmente a menor unidade de armazenamento magnético de dados.

leitura dos átomos com um microscópio eletrônico

© S. Loth/CFEL (leitura dos átomos com um microscópio eletrônico)

É uma unidade de armazenamento antiferromagnética, um tipo especial de magnetismo que foi usado agora pela primeira vez para armazenar dados.

A estrutura usa apenas 12 átomos por bit, comprimindo um byte inteiro (8 bits) em 96 átomos.

Para se ter uma ideia dessas dimensões, basta ver que um disco rígido moderno usa mais de meio bilhão de átomos por byte.

O feito foi divulgado apenas alguns dias depois que uma outra equipe descobriu que os chips de silício podem ser miniaturizados até a escala atômica.

A unidade armazenamento de dados nanométrica foi construída átomo por átomo, com a ajuda de um microscópio de varredura por tunelamento STM (Scanning Tunneling Microscope).

Os pesquisadores construíram padrões regulares de átomos de ferro, alinhando-os em fileiras de seis átomos cada. Duas linhas são suficientes para armazenar um bit. Um byte, por sua vez, é composto por oito pares de linhas de átomos. O byte inteiro ocupa uma área de 4 por 16 nanômetros.

"Isso corresponde a uma densidade de armazenamento que é 100 vezes maior em comparação com um disco rígido moderno," explica Sebastian Loth, do CFEL, responsável pela construção desses bits e bytes atômicos.

E é também 160 vezes mais denso do que uma memória flash, 417 vezes mais do que uma memória DRAM e 10.000 vezes mais denso do que uma SRAM.

Os dados são gravados e lidos com a ajuda do microscópio eletrônico.

Os pares de linhas de átomos têm dois estados magnéticos possíveis, representando os valores 0 e 1 de um bit clássico.

Um pulso elétrico emitido pela ponta do STM inverte a configuração magnética de um estado para o outro, fazendo a gravação. Um pulso mais fraco permite ler a configuração.

Os nanomagnetos são estáveis apenas a uma temperatura de -268º C (5 Kelvin).

Apesar disso, os pesquisadores esperam que conjuntos de cerca de 200 átomos sejam estáveis a temperatura ambiente.

De qualquer forma, ainda vai demorar algum tempo antes que ímãs atômicos possam ser usados de forma prática no armazenamento de dados.

Pela primeira vez, os pesquisadores conseguiram empregar uma forma especial de magnetismo, o antiferromagnetismo, para o armazenamento de dados.

Diferente do que ocorre no ferromagnetismo, que é usado nos discos rígidos convencionais, no material antiferromagnético os spins dos átomos vizinhos são alinhados em posições opostas, o que torna o material magneticamente neutro em macroescala.

Isto significa que as linhas de átomos antiferromagnéticas podem ser colocadas muito mais próximas umas das outras, sem interferir magneticamente entre si; os bits foram colocados a apenas um nanômetro de distância uns dos outros.

Ao contrário dos materiais ferromagnéticos, os materiais antiferromagnéticos são relativamente insensíveis a campos magnéticos, permitindo que as informações sejam guardadas de forma mais densa.

Neste experimento, a equipe não apenas construiu a menor unidade de armazenamento magnético de dados, como também criou uma plataforma de testes ideal para a transição da física clássica para a física quântica.

Como é que um ímã se comporta nesta fronteira?

Fonte: Science

quinta-feira, 5 de janeiro de 2012

Lei de Ohm em escala atômica

Uma nova técnica para a incorporação de fios em escala atômica dentro de cristais de silício, revelou que a lei de Ohm pode ser considerada verdadeirs para condutores com apenas quatro átomos de espessura e um átomo de altura.

microscópio por tunelamento mostra um fio em escala atômica

© Bent Weber (microscópio mostra fio em escala atômica)

O resultado é uma surpresa, porque a sabedoria convencional sugere que os efeitos quânticos devem causar grandes desvios da lei de Ohm para tal fios minúsculos. Paradoxalmente, os pesquisadores esperam que a descoberta venha ajudar no desenvolvimento de computadores quânticos.
O tamanho dos transistores e outros dispositivos estão se aproximando da escala atômica nos chips baseados em silício. Além dos desafios tecnológicos na fabricação de novos componentes, muitos físicos estão preocupados que a imprecisão inerente à mecânica quântica, em breve tornarão as leis clássicas aplicadas aos dispositivos eletrônicos estarão obsoletas.
Para investigar a condução na escala atômica, Michelle Simmons, Bent Weber e seus colegas da Universidade de New South Wales na Austrália, desenvolveram um método que usa átomos de fósforo que são incorporados atomicamente em finas regiões dentro de um cristal de silício. O fósforo tem um elétron a mais em sua camada externa do que o silício, e se um átomo de silício é substituído por um átomo de fósforo (um processo chamado de p-doping), ele doa um elétron livre para o cristal, aumentando assim a condutividade da região dopada.
A equipe de Simmons usa a ponta de um microscópio de varredura por sonda para criar um canal no silício através da remoção de camadas de átomos. A superfície é então exposta ao gás de fósforo, seguido pela deposição de átomos de silício. O resultado é uma cadeia de átomos de fósforo incorporado dentro de um cristal de silício - um fio de forma atômica. A equipe descobriu que a resistividade dos fios foi constante até em escala atômica. Isto significa que a resistência de um fio é proporcional ao seu comprimento e inversamente proporcional à sua área, assim como você esperaria da lei de Ohm!
As técnicas usadas para criar os fios não podem atualmente ser implantadas em processos industriais, mas acredita-se que é uma demonstração importante de que a miniaturização da eletrônica clássica pode continuar por vários anos. Empresas como a Intel tem se preocupado em fazer seus dispositivos tão pequenos que tornam a mecânica quântica evidente em seu comportamento. O comprimento de porta do transistor atualmente são cerca de 22 nm, que é cerca de 100 vezes o espaçamento dos átomos de silício individual.

O grupo de Simmons, no entanto, não está interessado na eletrônica convencional e em vez disso está trabalhando para o desenvolvimento de computadores quânticos. A equipe espera usar átomos de fósforo individuais como bit quântico, ou qubits.

"Cinco anos atrás, havia muitas barreiras potenciais para o desenvolvimento computador quântico baseado no fósforo. No momento eu acho que o grande desafio para a computação quântica é fazer um sistema escalável. Certamente esses fios são muito úteis para esse objetivo ", diz Simmons.

Fonte: Science

segunda-feira, 2 de janeiro de 2012

Sistema quântico é meio som e meio matéria

Físicos estão propondo um experimento para observar uma nova entidade quântica, um híbrido de um elétron e uma vibração quântica da rede atômica de um cristal.

fóniton

© C. Tahan/Laboratory for Physical Sciences (fóniton)

Na imagem acima as setas brancas descrevem um fónon, um quantum de som, em termos dos efeitos de deslocamento que ele induz sobre os átomos da rede atômica de um cristal.

As cores mostram o estado quântico de um elétron "doador", pertencente a um átomo de fósforo, em termos da probabilidade da presença do elétron em qualquer ponto.

Segundo a nova teoria, esses dois estados se conectam para formar um híbrido, um fóniton, um sistema quântico artificial resultado de um fónon e um elétron, ou seja, um fóniton é meio som e meio matéria.

O híbrido que poderá ser encontrado em uma nanoestrutura cristalina  poderá ser útil nas pesquisas dos computadores quânticos.

A estrutura quântica poderá ainda funcionar como um sensor magnético, eventualmente mais preciso do que aquele proposto para o microscópio feito de diamante.

"O fóniton pode melhorar as ferramentas atuais de manipulação das vibrações quantizadas em sistemas mecânicos em nanoescala, ajudando-nos a entender a natureza do som e do calor, além de servir como componente básico em novos sistemas quânticos artificiais em dimensões macroscópicas", propõe o professor Charles Tahan, da Universidade de Maryland, nos Estados Unidos,

Tahan e seus colegas afirmam que o fóniton poderá ser encontrado em uma pastilha de silício dopada com fósforo. Cada átomo de fósforo substitui um átomo de silício, mas fica com um elétron sobrando, que pode ser compartilhado.

Se a estrutura for comprimida ou esticada na intensidade correta, o estado fundamental e o estado de mais baixa energia desse elétron terão uma discrepância de apenas alguns meV (milielétron-volts).

Com isso, um fónon será capaz de forçá-lo a mudar de nível, e o elétron poderá emitir um fónon similar quando retornar ao seu estado fundamental.

Mas, para gerar o novo híbrido, é necessário manter o fónon que chega e o elétron doador acoplados por um longo período, dentro de uma coluna do material feita com camadas de silício e germânio.

Como as redes atômicas do silício e do germânio não coincidem perfeitamente, isso gerará uma tensão permanente no silício. Segundo a teoria, isso será suficiente para produzir um fóniton que sobreviva por alguns milissegundos.

Fonte: Physical Review Letters

sábado, 24 de dezembro de 2011

Universo teve 10 dimensões no Big Bang

Um grupo de pesquisadores do High Energy Research Accelerator Organization (KEK), da Universidade de Shizuoka e da Universidade de Osaka revelou que o Universo nasceu com três dimensões espaciais a partir de dez dimensões descrita pela teoria das supercordas.

Universo Primordial

© NASA/Adolf Schaller (Universo Primordial)

A teoria das supercordas descreve que o espaço-tempo tem nove direções espaciais e um sentido temporal.

Segundo o "Modelo Padrão" na cosmologia, o Universo se originou de uma expansão de um ponto invisível minúsculo (singularidade). Esta teoria é fortemente apoiada pela observação da radiação cósmica de fundo e a abundância relativa de elementos. No entanto, uma situação em que o Universo é um ponto minúsculo excede o alcance da teoria geral da relatividade de Einstein, e por isso não foi possível confirmar como o Universo se originou.
Na teoria das supercordas, que é considerada a "teoria de tudo", todas as partículas elementares são representados como vários modos de oscilação das diminutas cordas. Entre os modos de oscilação, há um que corresponde a uma partícula que medeia a gravidade, e, portanto, a teoria geral da relatividade pode ser naturalmente estendida para a escala das partículas elementares.
Portanto, espera-se que a teoria das supercordas permita a investigação do nascimento do Universo. No entanto, o cálculo real tem sido difícil porque a interação entre as cordas é forte, por isso toda a investigação até agora tem sido restrita na indagação de vários modelos.
A teoria das supercordas prevê um espaço com nove dimensões, o que coloca o grande enigma de como isso pode ser consistente com o espaço tridimensional que nós vivemos.
Um grupo de três pesquisadores, Jun Nishimura (professor associado da KEK), Asato Tsuchiya (professor associado da Universidade de Shizuoka) e Sang-Woo Kim (pesquisador da Universidade de Osaka) conseguiu simular o nascimento do Universo, usando um supercomputador para cálculos com base na teoria das supercordas. Isso mostrou que o Universo teve nove dimensões espaciais no início, mas apenas três destas foram submetidas à expansão em algum ponto no tempo.
Neste estudo, a equipe estabeleceu um método para calcular as matrizes de grandes dimensões (no modelo de matriz IKKT), que representam as interações de cordas.

Nos primordios do Universo o espaço é de fato estendido em nove direções, mas, em seguida, em algum momento apenas três dessas direções começam a expandir-se rapidamente. Este resultado demonstra, pela primeira vez, que o espaço tridimensional emerge a partir do espaço nonodimensional que a teoria das supercordas prevê.
Este cálculo foi realizado por simulação numérica com auxílio do supercomputador Hitachi SR16000 do Instituto Yukawa de Física Teórica da Universidade de Kyoto, que possui um desempenho teórico de 90,3 TFLOPS (Teraflops).
O estabelecimento de um novo método para analisar a teoria das supercordas por intermédio de computadores abre a possibilidade de aplicar essa teoria a diversos problemas. Por exemplo, agora deve ser possível fornecer uma compreensão teórica da inflação que se acredita ter ocorrido no início do Universo, e também a expansão acelerada do Universo.

Espera-se que a teoria das supercordas continuará evoluindo e desempenhando um papel importante na resolução de problemas em física de partículas, tais como a existência da matéria escura que é sugerida por observações cosmológicas, e a partícula de Higgs, que está prestes a ser descoberta pelos experimentos do LHC.

Fonte: High Energy Research Accelerator Organization

quinta-feira, 22 de dezembro de 2011

Descoberta nova partícula subatômica

O Grande Colisor de Hádrons (LHC), acelerador de partículas engajado na busca pelo bóson de Higgs, encontrou uma variedade mais pesada de uma partícula subatômica descoberta inicialmente um quarto de século atrás.

This is an offline reconstructed event from the GRID, showing tracks from the Inner Tracking System and the Time Projection Chamber of ALICE.

© LHC (íons pesados gerados no LHC)

A nova partícula, um bóson denominado Chi-b(3P), foi descoberta por intermédio da colisão de prótons.

Mas embora não se acredite que o bóson de Higgs seja feito de partículas menores, o Chi-b(3P) compreende duas partículas relativamente pesadas: o quark bottom e seu antiquark. Eles são ligados pela denominada força forte, que também faz os núcleos atômicos ficarem unidos. A Chi-b(3P) é uma versão mais pesada de uma partícula observada pela primeira vez cerca de 25 anos atrás.

A Chi-b(3P) é uma partícula que foi prevista por muitos teóricos, mas não foi observada em experimentos anteriores.

Correntes de prótons são disparadas em direções opostas e paralelas no túnel. Os feixes são, então, subjugados por poderosos ímãs de forma que alguns dos prótons colidam, alinhados com detectores para registrar os destroços subatômicos resultantes.

A teoria por trás do bóson é que a massa não deriva das partículas. Ao invés disso, vem de um bóson que interage fortemente com algumas partículas e menos, quando interage, com outras. Encontrar a Chi-b(3P) será um teste futuro para a potência do LHC, que se tornou o maior colisor de partículas do mundo, quando foi concluído, em 2008.

"Nossas novas medições são uma grande forma de testar cálculos teóricos das forças que atuam em partículas fundamentais, e nos levará mais perto do entendimento de como o Universo se mantém unido", explicou Miriam Watson, cientista britânica que trabalha na pesquisa com o CHi-b(3P).

A massa do Chi-b(3P) ou cb(3P) é de cerca de 10,5 GeV. Os outros dois estados, detectados previamente em outras experiências de colisão de partículas, são os estados cb(1P) e cb(2P) com massas de 9,90 e 10,26 GeV respectivamente.

Fonte: CERN

quarta-feira, 14 de dezembro de 2011

Sinais da existência do bóson de Higgs

A organização europeia para a pesquisa nuclear CERN, através dos experimentos ATLAS e CMS no LHC (Large Hadron Collider) divulgou sinais da existência do bóson de Higgs.

representação de sinal da existência do bóson de Higgs

© CERN (representação de sinal da existência do bóson de Higgs)

Seus resultados são baseados na recente análise de dados, mas não o suficiente para fazer qualquer declaração conclusiva sobre a existência ou não da elusiva partícula de Higgs. A principal conclusão é que de acordo com o Modelo Padrão para o bóson de Higgs existir, é mais provável que possua uma massa restrita à faixa de 116-130 GeV (gigaelétron-volt) pelo experimento ATLAS e 115-127 GeV pelo experimento CMS. Foram vistos picos de energia nestas regiões em ambos os experimentos na região de massa propícia, mas estes ainda não são relevantes o bastante para reivindicar uma descoberta.
O modelo padrão da física de partículas implica na existência do chamado Campo de Higgs que permeia todo o espaço. As partículas que interagem com este campo mais fortemente experimentam uma resistência maior ao seu movimento e por isso parecem mais pesadas. Algumas partículas, porém, como os fótons não interagem com o campo e por isso não possuem massa.

Os bósons de Higgs, se eles existem, têm uma vida muito curta e podem decair de diferentes maneiras. Caso seja produzido a partir das bilhões de colisões no LHC, o bóson rapidamente se transformará em partículas de massa menor e mais estáveis. Serão essas partículas os indícios que poderão comprovar a sua existência, que aparecerão como ligeiras variações em gráficos produzidos pelos detectores.

Dados do ATLAS e do CMS foram analisados em alguns canais de decaimento, e os experimentos puderam gerar pequenos excessos na região de baixa massa que ainda não foram excluídos.

Porém, nenhum desses excessos observados possuem um significado estatístico razoável. Entretanto, foram encontradas evidências da existência da partícula no intervalo de massa entre 124 e 126 GeV - cerca de 130 vezes mais pesado do que os prótons encontrados no núcleo dos átomos. É muito cedo ainda para dizer se o ATLAS e o CMS descobriram o bóson de Higgs, mas algumas conclusões e números apresentados proporcionaram grande interesse da comunidade da física de partículas.

O excesso de massa encontrado em torno de 125 GeV pode caracterizar a existência do bóson de Higgs, mas também poderia ser uma flutuação.

Não pode ser excluída também a presença da partícula entre 115 e 127 GeV por causa de modestos eventos de excesso de massa nessa região. O Modelo Padrão é a teoria que descreve o comportamento das partículas fundamentais e as forças que atuam entre elas. Esse modelo descreve a matéria ordinária, a matéria constituinte do nosso Universo visível. Porém o Modelo Padrão não descreve 96% do Universo que é invisível (matéria escura e energia escura). Um dos principais objetivos do programa de pesquisa do LHC é ir além do Modelo Padrão, e o bóson de Higgs é fundamental para ultrapassar essa fronteira.

O Modelo Padrão de Higgs confirmaria uma teoria colocada na década de 1960, mas existem outras formas possíveis que o bóson de Higgs poderia existir integrando teorias e indo além do Modelo Padrão. Este modelo poderia ainda apontar o caminho para uma nova física, através de sutilezas nesse comportamento que só emergiriam depois de se estudar uma grande quantidade de decaimentos de partículas de Higgs.

Caso se comprove que o Bóson de Higgs não exista, a teoria do Modelo Padrão teria de ser reescrita. Isso poderia abrir caminho para novas linhas de pesquisa, que poderão se tornar revolucionárias na compreensão do Universo.

Fonte: CERN

sexta-feira, 2 de dezembro de 2011

Neutrinos roubam a cena mais uma vez

Os neutrinos voltam à cena com os primeiros resultados do experimento Double Chooz, colaboração internacional, com participação brasileira, que tem por objetivo observar o seu estranho comportamento.

ilustração do sumiço dos neutrinos

© Fermilab (ilustração do sumiço dos neutrinos)

O experimento mostrou, com sucesso, o curioso desaparecimento de neutrinos e conseguiu encontrar um valor para o parâmetro físico que explica esse fenômeno.

Neutrinos são partículas subatômicas sem carga que de tão pequenas conseguem passar através de sólidos sem causar alterações. De fato, somos atravessados por neutrinos emitidos pelo Sol toda hora.

Existem três tipos de neutrinos: os do elétron, do tau e do múon. Recentemente, descobriu-se que essas partículas têm a curiosa propriedade de se transformar uma na outra durante sua propagação.

Os neutrinos também são produzidos, artificialmente, durante a fissão do urânio em reatores nucleares ou em aceleradores, como o LHC (Grande Colisor de Hádrons). Desde março deste ano, um detector de neutrinos do elétron está em funcionamento na usina de Chooz, na França, medindo as partículas que são emitidas e as que chegam a 1 km do reator.

usina nuclear de Chooz

© Double Chooz (usina nuclear de Chooz)

Depois de 100 dias de medição, os pesquisadores envolvidos no projeto observaram o desaparecimento dos neutrinos do elétron, o que significa que, em sua viagem do reator até o ponto onde está localizado o detector, eles devem ter se transformado em neutrinos do tau ou do múon, não identificáveis pelo equipamento usado.

Em reunião realizada no Centro Brasileiro de Pesquisas Físicas (CBPF) em outubro, pesquisadores do mundo inteiro compararam a quantidade de partículas emitidas pelo reator com o número de partículas que sumiram e chegaram ao valor mais preciso já obtido até hoje para o chamado “ângulo de mistura teta 13” (lê-se ‘um três’), um importante parâmetro envolvido na transformação dos neutrinos em curtas distâncias.

Alguns experimentos com aceleradores, como o japonês T2K, recentemente sugeriram valores para o teta 13, mas não com a precisão de 92% obtida pelo Double Chooz. “Quando falamos desse ângulo de mistura, estamos falando de medir algo muito pequeno, por isso sempre foi muito difícil encontrar esse valor”, conta o físico João dos Anjos, coordenador da equipe do CBPF no projeto.

A medida precisa do teta 13 é necessária para se chegar ao valor de outra incógnita de nome complicado na física de partículas, a chamada violação de carga paridade, que pode ajudar a explicar o mistério do sumiço da antimatéria, prevista na teoria do Big Bang sobre a origem do Universo.

E o fim desse mistério pode estar próximo. Em meados do ano que vem, o Double Chooz já terá um ano inteiro de medições, o que pode tornar o valor de teta 13 mais preciso ainda.

A medida do teta 13 é necessária para se chegar ao valor de uma incógnita da física que pode ajudar a explicar o mistério do sumiço da antimatéria

Esses resultados devem ser apresentados durante o congresso de Neutrinos 2012 em julho, em Tóquio, Japão, e espera-se que eles ajudem os pesquisadores do experimento T2K a encontrar o valor do parâmetro que pode explicar o sumiço da antimatéria.

Fonte: Ciência Hoje

domingo, 27 de novembro de 2011

Transístor quântico diminui consumo de energia

Um avanço demonstrado por pesquisadores da IBM e do Instituto Politécnico Federal de Lausanne, na Suíça, através dos fenômenos quânticos será possível diminuir o consumo de energia dos equipamentos eletrônicos por um fator de 100.

ilustração de um transistor quântico

© IBM (ilustração de um transístor quântico com nanotubos)

Como o grande limitador ao aumento de velocidade dos processadores é justamente o elevado consumo de energia, econsequentemente o calor dissipado por eles, é de se esperar um aumento equivalente na velocidade de processamento.

Recentemente, a IBM anunciou uma tecnologia que usa metal líquido para retirar calor dos processadores, afirmando que isso permitiria colocar um supercomputador atual dentro de um celular em breve.

O segredo está em um novo tipo de transístor, o elemento fundamental de toda a eletrônica, chamado Túnel-FET, ou TFET.

O termo túnel se refere ao fenômeno do tunelamento quântico, pelo qual uma partícula consegue atravessar uma barreira física - este fenômeno já é largamente utilizado, por exemplo, nos microscópios eletrônicos de tunelamento.

A tecnologia atual é baseada nos transistores de efeito de campo (FET, da sigla em inglês), onde um fluxo de elétrons ativa ou desativa o transístor - um fluxo de bilhões de elétrons, que esquenta tudo por onde passam.

No transístor, duas câmaras são separadas por uma barreira de energia. Na primeira, uma multidão de elétrons fica esperando quando o transístor está desligado. Quando é aplicada uma tensão, eles cruzam a barreira de energia, ativando o transístor. É o que se chama de injeção termal.

Ocorre que alguns elétrons acabam cruzando essa barreira antes da hora, mesmo que aparentemente não tivessem energia para tanto. Esse é o efeito túnel, que sempre atrapalhou o funcionamento dos transistores.

Estreitando a barreira do transístor torna-se possível amplificar o efeito quântico e passar a basear o funcionamento do transístor inteiro nesse tunelamento, que é a chamada injeção por tunelamento. A energia necessária para que os elétrons cruzem a barreira é reduzida drasticamente.

"Substituindo o princípio do transístor de efeito de campo tradicional pelo efeito túnel, pode-se reduzir a tensão dos transistores de 1 volt para 0,2 volt," afirmou o Dr. Adrian M. Ionescu, que está desenvolvendo o Túnel-FET juntamente com Heike Riel.

Sua adoção é viável, uma vez que os processadores poderão ser construídos com FETs e Túnel-FETs convivendo no mesmo chip.

"Os protótipos atuais foram construídos em ambiente pré-industrial. Nós podemos razoavelmente esperar vê-los em produção em massa por volta de 2017," disse Ionescu.

Fonte: Nature

sexta-feira, 18 de novembro de 2011

Luz gerada pelo vácuo

Um experimento, previsto há mais de 40 anos,  produziu luz a partir do vácuo.

ilustração do efeito Casimir dinâmico

© Philip Krantz/ U. Chalmers (ilustração do efeito Casimir dinâmico)

O grupo formado por Christopher Wilson e seus colegas da Universidade Chalmers, na Suécia, conseguiu capturar fótons que oriundos do vácuo quântico, aparecendo e desaparecendo continuamente.

O experimento é baseado num dos mais estranhos e importantes princípios da mecânica quântica: o princípio de que o vácuo não é um vazio "repleto de nada".

Na verdade, o vácuo é composto de partículas que estão flutuando continuamente entre a existência e a inexistência: elas surgem do vácuo quântico e têm uma vida efêmera e desaparecem novamente.

Seu tempo de vida é tão curto que esses fótons são mais comumente conhecidos como partículas virtuais.

O que os pesquisadores fizeram foi obter alguns desses fótons e dar-lhes a eternidade em termos quânticos, ou seja, transformá-los em fótons reais, luz que pode ser detectada por um sensor e medida.

Para capturar os fótons virtuais, os pesquisadores simularam um espelho movendo-se a uma fração significativa da velocidade da luz. O fenômeno, conhecido como efeito de Casimir dinâmico, foi observado experimentalmente pela primeira vez.

"Como não é possível fazer um espelho mover-se rápido o suficiente, nós desenvolvemos outra técnica para obter o mesmo efeito," explica o professor Per Delsing, coordenador da equipe. "Em vez de variar a distância física até um espelho, nós variamos a distância elétrica de um circuito elétrico que funciona como um espelho para microondas".

O espelho consiste em um sensor quântico conhecido como SQUID (Superconducting Quantum Interference Device), que é extremamente sensível a campos magnéticos.

Alterando a direção do campo magnético vários bilhões de vezes por segundo, os cientistas fizeram o espelho vibrar a uma velocidade equivalente a 25% a velocidade da luz.

Isto é cinco vezes mais do que a tentativa anterior, quando os cientistas afirmaram pela primeira vez ter produzido luz a partir do nada - aquele artigo, contudo, ainda não havia sido aceito para publicação em uma revista científica, o que significa que outros cientistas não haviam avaliado o experimento.

"O resultado foi que os fótons apareceram em pares do vácuo, e nós pudemos medi-los na forma de radiação de microondas," disse Delsing, ou seja, exatamente como a teoria previa.

O que acontece durante o experimento é que o espelho transfere uma parte de sua energia cinética para os fótons virtuais, o que os ajuda a se "materializarem".

Segundo a mecânica quântica, vários tipos de partículas estão presentes no vácuo quântico. Os cientistas acreditam que foram capazes de detectar os fótons porque eles não têm massa.

"É necessário relativamente pouca energia para excitá-los e tirá-los do estado virtual. Em princípio, pode-se criar outras partículas do vácuo, como elétrons e prótons, mas isso vai exigir um bocado mais de energia," disse Delsing.

Agora os cientistas querem estudar em detalhes esses fótons emergentes: como eles surgem aos pares, os cientistas acreditam que eles possam ser úteis para o desenvolvimento de computadores quânticos, com seus qubits de partículas entrelaçadas.

Fonte: Nature

sexta-feira, 4 de novembro de 2011

Leis da Física variam ao longo do Universo

Uma pesquisa afirma que as leis da natureza podem variar ao longo do Universo.

variação da constante alfa

© John Webb (variação da constante alfa)

O gráfico mostra medições feita pelo telescópio Keck e VLT (Very Large Telescope). Os quadrados são dados do VLT, os círculos do Keck, e os triângulos são quasares observados em ambos.

O estudo concluiu que uma das quatro forças fundamentais, o eletromagnetismo, parece variar de um lugar para outro.

O eletromagnetismo é medido por meio da chamada constante de estrutura fina, simbolizada pela letra grega alfa (α).

Esta constante é uma combinação de três outras constantes: a velocidade da luz (c), a carga do elétron (e) e a constante de Planck (h), onde α = e2/hc.

O resultado é cerca de 1/137, um número sem dimensão, o que a torna ainda mais fundamental do que as outras constantes, como a gravidade, a velocidade da luz ou a carga do elétron.

Em termos gerais, a constante alfa mede a magnitude da força eletromagnética, ou seja, a intensidade das interações entre a luz e a matéria.

Agora, John Webb e pesquisadores das universidades de Nova Gales do Sul e Swinburne, na Austrália, e Cambridge, no Reino Unido, mediram o valor de alfa em cerca de 300 galáxias distantes, usando dados do VLT do ESO, no Chile.

Observaram que numa direção, a partir de nossa localização no Universo, a constante alfa vai ficando gradualmente mais fraca, e gradualmente mais forte na direção oposta.

Isso mostra uma espécie de "eixo preferencial" para o Universo, de certa forma coincidente com medições anteriores que deram origem à teoria do chamado Fluxo Escuro, que indica que uma parte da matéria do nosso Universo estaria vazando por uma espécie de "ralo cósmico", sugada por alguma estrutura de um outro universo.

A descoberta, se confirmada, terá profundas implicações para o nosso entendimento do espaço e do tempo, e viola um dos princípios fundamentais da teoria da Relatividade Geral de Einstein, o princípio da equivalência de Einstein.

Essas violações são de fato esperadas por algumas “teorias de tudo”, que tentam unificar todas as forças fundamentais. Uma alteração suave e contínua de alfa pode implicar que o Universo seja muito maior do que a parte dele que conseguimos observar, possivelmente infinito.

O professor Webb afirma que esta descoberta também pode dar uma resposta muito natural para uma questão que tem intrigado os cientistas há décadas: por que as leis da física parecem tão bem ajustadas para a existência da vida?

"A resposta pode ser que outras regiões do Universo não são tão favoráveis à vida como nós a conhecemos, e que as leis da física que medimos em nossa parte do Universo são meramente 'regras locais'. Neste caso, não seria uma surpresa encontrar a vida aqui," afirma o cientista.

Isto porque basta uma pequena variação nas leis da física para que, por exemplo, as estrelas deixem de produzir carbono, o elemento básico da vida como a conhecemos.

Para chegar às suas conclusões, os cientistas usaram a luz de quasares muito distantes como faróis.

O espectro da luz que chega até nós, vinda de cada quasar, traz consigo sinais dos átomos nas nuvens de gás que a luz atravessou em seu caminho até a Terra.

Isto porque uma parte da luz é absorvida por estes átomos, em comprimentos de onda específicos que revelam a identidade desses átomos.

Essas linhas de absorção são então comparadas com as mesmas assinaturas encontradas em laboratório aqui na Terra para ver se a constante alfa é mesmo constante.

Os resultados mostraram que não, que alfa varia ao longo de um eixo que parece atravessar o Universo, assim como um eixo magnético atravessa a Terra.

Se há variação em uma das constantes, é de se esperar que as outras constantes fundamentais também variem.

Portanto, é preciso projetar experimentos que possam verificar variações na gravidade, na carga do elétron ou na velocidade da luz.

Fonte: Physical Review Letters

sábado, 29 de outubro de 2011

Rumo a estrela artificial controlada

Usando 60 raios lasers de alta potência, combinados para atingir uma cápsula minúscula, físicos produziram um plasma com condições de densidade de energia extremas.

© LLNL (Omega Laser)

Essas condições incluem uma pressão de 100 bilhões de atmosferas, uma temperatura de 200 milhões Kelvin e uma densidade 20 vezes maior que a do ouro.

Antes desse super disparo de laser, essas condições só podiam ser encontradas no núcleo de planetas gigantes, como Júpiter e Saturno, ou no interior das estrelas.

O experimento é um dos caminhos rumo à construção de uma "estrela artificial" controlada, onde a fusão nuclear poderá ser explorada para a geração sustentável de energia.

Muitos físicos acreditam que a fusão nuclear a laser seja a melhor saída para essa fonte de energia limpa.

O laboratório Omega Laser Facility, localizado na Universidade de Rochester, nos Estados Unidos, onde o recorde acaba de ser batido, é um dos que trabalham nesse sentido.

Os pesquisadores normalmente usam aceleradores para estudar as reações nucleares.

Neste laboratório, a equipe usou uma abordagem diferente, criando um plasma quente e denso, no qual elétrons são arrancados dos átomos para criar um plasma, o quarto estado da matéria.

O estado de plasma está presente nas estrelas, nos relâmpagos e até nas lâmpadas fluorescentes, na verdade 99% do Universo visível é composto de plasma.

Para obter esse plasma, todos os 60 feixes de laser do Laboratório Ômega foram dirigidos simultaneamente para a superfície de uma cápsula de vidro de um milímetro de diâmetro, cheia de isótopos pesados de hidrogênio - deutério e trítio.

laser sobre uma esfera de vidro com deutério e trítio

© LLNL (laser sobre uma esfera de vidro com deutério e trítio)

Os feixes de laser geram um plasma em rápida expansão, de alta temperatura, na superfície da cápsula, fazendo-a implodir.

Esta implosão, por sua vez, cria um plasma extremamente quente (100 milhões Kelvin) de íons de deutério e trítio, e de elétrons, dentro da cápsula.

Uma pequena fração dos íons de deutério e trítio se fundem, um processo que gera um nêutron viajando a um sexto da velocidade da luz, com cerca de 14,1 milhões de elétron-volts de energia - em comparação, a combustão de uma substância química comum, como a madeira ou o carvão, gera cerca de 1 elétron-volt de energia.

Conforme esses nêutrons energizados escapam da cápsula que está implodindo, uma pequena fração colide com os íons de deutério e trítio.

A partir dessas colisões, bastante raras, e da correspondente transferência de energia dos nêutrons para os íons, os pesquisadores podem obter uma medição precisa do processo de fusão nuclear.

Fonte: Physical Review Letters

Os buracos Kondo na supercondutividade

Pesquisadores usaram um composto de urânio, rutênio e silício (URu2Si2), que é conhecido como um "sistema de férmions pesados"  para obter efeitos sobre a supercondutividade, a capacidade de alguns materiais de transportar correntes elétricas sem resistência.

efeitos dos buracos Kondo na supercondutividade

© Davis Group (efeitos dos buracos Kondo na supercondutividade)

Os resultados revelaram como a substituição de apenas alguns átomos pode causar perturbações generalizadas das delicadas interações que dão ao material suas propriedades únicas, incluindo a supercondutividade.

É um sistema onde os elétrons que trafegam através do material param periodicamente para interagir com os elétrons localizados nos átomos de urânio que compõem a estrutura do cristal.

Essas interações magnéticas desaceleram os elétrons, fazendo com que pareça que eles têm uma massa extra, mas também contribui para a supercondutividade do material.

Em 2010, Séamus Davis, físico do Laboratório Nacional Brookhaven, dos Estados Unidos, e um grupo de colaboradores visualizaram esses férmions pesados pela primeira vez, usando a técnica de obtenção de imagens espectroscópicas por microscopia de tunelamento (STM-SI), que mede o comprimento de onda dos elétrons do material em relação à sua energia.

A ideia deste novo estudo foi "destruir" o sistema de férmions pesados, substituindo o tório por alguns dos átomos de urânio. O tório, ao contrário do urânio, não é magnético, portanto, em teoria, os elétrons deveriam ser capazes de se mover livremente ao redor dos átomos de tório, em vez de parar para os breves encontros magnéticos que têm com cada átomo de urânio.

Estas áreas onde os elétrons deveriam fluir livremente são conhecidas como "buracos Kondo", uma homenagem ao físico Jun Kondō que descreveu o espalhamento dos elétrons condutores devido as impurezas magnéticas.

Os elétrons fluindo livremente podem auxiliar na corrente elétrica sem resistência, mas os buracos Kondo acabam se tornando bastante destrutivos para a supercondutividade.

Trabalhando com amostras de tório dopado, feitas pelo físico Graeme Luke, na Universidade McMaster, a equipe de Davis usou sua ferramenta STM-SI para visualizar o comportamento dos elétrons.

Foram identificados inicialmente os locais dos átomos de tório na rede, e consequentemente as funções de onda da mecânica quântica dos elétrons em torno desses locais.

As medições confirmaram várias das previsões teóricas, incluindo a ideia proposta no ano passado pelo físico Dirk Morr, da Universidade de Illinois, de que as ondas de elétrons iriam oscilar descontroladamente ao redor dos buracos Kondo.

Assim, destruindo os férmions pesados, que devem emparelhar-se para o material agir como um supercondutor, os buracos Kondo interrompem a supercondutividade do material.

A técnica de visualização também revelou como apenas alguns poucos buracos Kondo podem provocar uma destruição generalizada.

O que os cientistas descobriram ao estudar esse exótico sistema de férmions pesados pode também valer para o mecanismo de outros supercondutores que operam em temperaturas mais altas.

Fonte: Proceedings of the National Academy of Sciences

sábado, 22 de outubro de 2011

Usando o Sol para testar teorias alternativas

Um grupo de físicos portugueses está propondo que o Sol seja usado para testar algumas teorias alternativas à Teoria da Relatividade Geral de Einstein.

Sol

© NASA/SOHO (Sol)

Jordi Casanellas e seus colegas da Universidade Técnica de Lisboa afirmam que uma teoria proposta há mais de um século por Arthur Eddington não foi totalmente descartada pelas observações recentes dos neutrinos solares e das ondas acústicas solares.

E, segundo eles, uma variante da teoria de Eddington pode ajudar a resolver algumas das deficiências das teorias atuais.

A Teoria da Relatividade Geral, que descreve a gravidade como a curvatura do espaço-tempo por corpos celestes de grande massa, tem passado por todos os testes aos quais tem sido submetida ao longo dos anos. Mas existem problemas para serem resolvidos.

Além da bem conhecida dificuldade de unificação com a mecânica quântica e das ainda pendentes explicações para a matéria e a energia escuras, há o problema bem mais sério das singularidades, onde as leis da física simplesmente se esfacelam.

Em 2010, Máximo Bañados (Universidade Católica do Chile) e Pedro Ferreira (Universidade de Oxford) propuseram uma variante da teoria de Eddington que adiciona um termo gravitacional repulsivo para a teoria da relatividade.

Mas o que parece ser a simples adição de mais um membro a uma equação tem um efeito devastador sobre o entendimento mais geral do cosmo.

Esse termo gravitacional repulsivo não apenas elimina a necessidade das singularidades, ele descarta a formação dos buracos negros e a ideia de que o Universo teria surgido de um Big Bang.

Quando tenta interpretar um campo gravitacional em um vácuo, essa teoria inspirada em Eddington é equivalente à Teoria da Relatividade. Mas ela prevê efeitos diferentes para a gravidade agindo no interior da matéria.

O lugar ideal para testar essas diferenças seria o interior de estrelas de nêutrons. Embora se acredite que estrelas de nêutrons possam ativar o vácuo quântico, não se sabe o suficiente a respeito delas para comparar as duas teorias. Por exemplo, recentemente foi encontrada uma estrela de nêutrons cuja existência parecia ser impossível.

O Sol é uma fonte de gravidade muito menos extrema do que uma estrela de nêutrons, porém o funcionamento do seu interior já é razoavelmente bem descrito pelos modelos solares.

O grupo de Casanellas calculou que, mesmo em sua forma newtoniana, não-relativística, a teoria derivada de Eddington prevê diferenças quantificáveis nas emissões solares em comparação com a teoria gravitacional padrão, desenvolvida por Einstein.

O termo gravitacional repulsivo na teoria de Bañados e Ferreira seria equivalente a dar um valor diferente para a constante gravitacional no interior da matéria.

E intensidades diferentes da gravidade no interior do Sol devem resultar em diferenças em sua temperatura interna, uma vez que se assume que o Sol está em equilíbrio hidrostático, ou seja, a pressão para dentro de sua massa é equilibrada pela pressão para fora gerada pelas reações de fusão nuclear em seu interior.

Uma temperatura mais elevada implica uma maior taxa de fusão nuclear, implicando em uma maior taxa de emissão de neutrinos solares, algo diretamente mensurável.

Uma força da gravidade maior no interior do Sol propicia numa variação na sua distribuição de densidade, o que deve modificar a propagação das ondas acústicas em seu interior, podendo ser medida com as técnicas da heliossismologia.

Todos esses dados já estão disponíveis. Contudo, eles colocam sérias restrições à nova teoria, impondo limites muito estreitos para seus valores.

Um teste mais rigoroso exigiria melhorias nos modelos solares, incluindo a abundância de hélio na superfície do Sol, ou medições mais precisas dos fluxos de neutrinos.

Paolo Pani, um dos membros da equipe, sugere um teste alternativo, aqui na Terra mesmo.

Para ele, tanto a teoria derivada de Eddington, quanto outras teorias alternativas da gravidade, poderiam ser testadas medindo a atração gravitacional entre uma esfera de metal inserida em um buraco no solo e a massa da Terra ao seu redor.

A ideia é fazer um buraco onde coubesse apenas a esfera, e nada mais, com uma precisão gigantesca, de forma que a medição mostrasse apenas a intensidade da gravidade no interior da matéria, e não no vazio ao seu redor.

Entretanto, tal experimento apresenta desafios consideráveis.

Fonte: Physics World