segunda-feira, 31 de agosto de 2015

A radiação terahertz

Apesar de ainda pouco explorada, a radiação terahertz já fornece mostra de sua potencialidade em análises de materiais e obtenções de imagens.

quadro Marinha

© Virgilio Guidi (quadro Marinha)

Nada substitui o olho de um especialista para avaliar as particularidades de um quadro. Mas o emprego em importantes museus e instituições culturais do país de uma série de análises físicas e químicas tornou-se uma ferramenta adicional para entender o estilo e o processo criativo de certos pintores, dar parâmetros ao trabalho de conservação e restauração e trazer à tona facetas ocultas de algumas pinturas. Nesse sentido, a história do quadro Marinha, um óleo sobre madeira produzido provavelmente no início da década de 1940 pelo italiano Virgilio Guidi (1891-1984), é bastante ilustrativa. No catálogo do Museu de Arte Contemporânea da Universidade de São Paulo (MAC-USP), onde se encontra guardada, essa tela abriga, oficialmente, apenas uma pintura: uma vista do Grande Canal de Veneza, com destaque para a Igreja de San Giorgio Maggiore. No entanto, basta virar o quadro para ver, a olho nu, em seu verso o retrato de uma mulher. Imagens no infravermelho desse lado B da tela revelaram uma terceira pintura escondida sob as tintas que deram forma à figura feminina: outra cena marítima da cidade italiana.

Os raios X, raios gama, raios ultravioleta, raios infravermelhos e micro-ondas representam diferentes formas de radiação eletromagnética. A radiação infravermelha se manifesta sob a forma de calor.

No espectro eletromagnético, entre a faixa das micro-ondas e do infravermelho existe uma zona pouco explorada científica e tecnologicamente, a radiação terahertz gerada pelos raios T.

O nome vem da faixa de frequências dessa radiação, entre 0,3 e 3 THz (terahertz ou trilhões de hertz). Em termos de comprimento de onda, os raios T vão de 1.000 a 100 micrômetros.

Depois de muitas e infrutíferas tentativas de aproveitamento dos raios T, parece que agora há indícios de que teremos finalmente a exploração da última fronteira de pesquisa em eletrônica de alta frequência.

Há quase 90 anos, mais precisamente em 1923, E. F. Nichols e J. D. Tear publicaram um artigo com o sugestivo título “Unindo os espectros do infravermelho e das ondas elétricas”.

Desde então, físicos e engenheiros têm preconizado uma “nova era” para essa fronteira entre o infravermelho e a micro-onda, para logo depois se depararem com resultados pífios.

Os desenvolvimentos científicos e tecnológicos nos dois lados da fronteira têm sido notáveis, tais como os artefatos modernos: forno de micro-ondas, telefones celulares, telefones sem fio e GPS.

No lado do infravermelho, não é menos notável o desenvolvimento tecnológico, muitas vezes impulsionado por interesses militares. Entre as inúmeras aplicações civis, podemos destacar aquelas relacionadas a pesquisas em astronomia, em química e na análise de objetos de arte, sobretudo pinturas.

Enquanto a micro-onda, com frequência na faixa do gigahertz, é capaz tão somente de produzir rotações nas moléculas, a parte superior do infravermelho, com frequência maior que 10 terahertz, é capaz de produzir vibrações, resultantes de interações intermoleculares.

Já a radiação terahertz faz as duas coisas simultaneamente. A análise com raios T permite, ao mesmo tempo, a análise de materiais quanto à sua estrutura molecular, assim como a análise com micro-onda, e quanto à sua composição química, do mesmo modo que a análise com infravermelho.

Esse comportamento extremamente interessante é conhecido desde os anos 1920, mas foi necessário esperar por uma ideia bastante criativa para que feixes de raios T com alta luminosidade e grande faixa de frequências pudessem ser produzidos.

Uma ideia inovadora, originada nos laboratórios Bell, no final dos anos 1980, utilizou um laser de femtosegundos (femtosegundo é um quadrilionésimo de segundo). Quando um pulso emitido pelo laser atinge uma antena fotocondutiva, material que emite pulsos elétricos quando iluminada, também inventado pelos pesquisadores da Bell, o resultado é a emissão de pulsos com frequências entre 300 gigahertz e 10 terahertz.

Tão interessante quanto isso é o fato de que pequenas modificações técnicas na estrutura do circuito transformam uma antena emissora em receptora, dois elementos importantes para o funcionamento de um equipamento de raios T.

Seu alto poder de penetração em materiais desidratados, não-metálicos, plásticos, papéis e cartolinas e sua impenetrabilidade em materiais metálicos e líquidos polares como a água fazem da radiação T uma excelente ferramenta para obtenção de imagens, uma das aplicações mais extasiantes da atualidade.

Quando o feixe do laser atinge a antena emissora constituída de material fotocondutor, produz pulsos de raios T, os quais são modificados, em sua forma e frequência, em decorrência da interação com o material da amostra. Um sistema eletrônico convencional transforma os sinais elétricos produzidos pela antena em imagens.

Um cálculo simples mostra a eficiência desse sistema de aquisição de imagem com raios T. Antes do uso do laser de femtosegundo e das antenas fotocondutivas, seriam necessários 15 dias para a obtenção de uma imagem de 100 pixel x 100 pixel com raios T. Com o sistema desenvolvido pelo pessoal da Bell é possível analisar 100 pixels por segundo, de modo que a imagem de 100x100 é obtida em pouco mais de 1 minuto.

Muitos dos resultados de aplicações analíticas da radiação T são similares àqueles obtidos com o infravermelho. Já nas aplicações com imagens, além das duas formas de radiações eletromagnéticas, os raios X aliam-se na concorrência.

Os pesquisadores da Universidade de Tecnologia de Delft, na Holanda, mostraram como os raios T podem ser utilizados, de modo não destrutivo, para determinar espessuras de camadas de tinta abaixo de uma pintura, algo impossível com o uso de raios X ou infravermelho.

Ao contrário dos raios X, os raios T não ionizam o material analisado e, ao contrário do infravermelho, não o aquece por causa da baixíssima intensidade necessária para a realização das análises.

Apesar de todas as vantagens apontadas até aqui, ainda há uma séria limitação a ser superada nos atuais equipamentos: a baixa resolução espacial. A resolução espacial dos equipamentos atuais está na faixa do milímetro, ou seja, objetos na escala micrométrica não são bem identificados.

Aumentar a resolução espacial dos equipamentos de raios T é, portanto, um efervescente desafio de pesquisa, que poderá fazer com que a radiação terahertz seja digna dos sonhos dos pesquisadores da área.

Recentemente, Godfrey Gumbs e seus colegas da Universidade Cidade de Nova Iorque idealizaram um dispositivo que permite converter uma corrente contínua, como a armazenada em baterias, em uma fonte ajustável de radiação terahertz.

O dispositivo é baseado nos plásmons de superfície, ondas de elétrons que se formam na superfície dos metais. Foi idealizado um semicondutor híbrido: uma camada mais grossa de um material eletricamente condutor envolvida por duas camadas muito finas, que podem ser de grafeno, siliceno, ou mesmo de um gás.

Quando a corrente contínua passa através desse sanduíche, ela cria uma ressonância plasmônica com um comprimento de onda muito específico, que induz a emissão da radiação terahertz, que pode então ser "coletada" por uma antena em forma de grade.

Ajustando os vários parâmetros, como a densidade do semicondutor híbrido ou da corrente contínua aplicada, é possível ajustar o comprimento de onda, ou seja, a frequência da radiação terahertz produzida.

"Nossa abordagem baseada em semicondutores híbridos pode ser generalizada para incluir outros materiais bidimensionais emergentes, tais como o nitreto de boro hexagonal, a molibdenita e o disseleneto de tungstênio," disse o professor Andrii Iurov, coordenador da equipe.

Um artigo intitulado “Tunable surface plasmon instability leading to emission of radiation”, que descreve a converção de uma corrente contínua em uma fonte ajustável de radiação terahertz, foi publicado no Journal of Applied Physics.

Fonte: Ciência Hoje e Pesquisa FAPESP

quarta-feira, 26 de agosto de 2015

A natureza dos neutrinos de alta energia

A Colaboração IceCube anunciou uma nova observação de neutrinos de alta energia originários de fora do nosso Sistema Solar.

eventos de neutrino mais energéticos

© IceCube (eventos de neutrino mais energéticos e o IceCube Lab)

Este estudo, que procurou neutrinos vindos do Hemisfério Norte, confirma a sua origem cósmica bem como a presença de neutrinos extragaláticos e a intensidade da taxa de neutrinos. A primeira evidência de neutrinos astrofísicos foi anunciada pela colaboração em novembro de 2013.

"A procura por neutrinos do múon que chegam ao detector, passando pelo interior da Terra, é o modo como o IceCube faz astronomia de neutrinos e, com este estudo, prova-o," afirma Francis Halzen, pesquisador principal do IceCube e professor de física da Universidade de Wisconsin-Madison. "Não é como o CMS (Compact Muon Solenoid) ou o ATLAS (A Toroidal LHC ApparatuS), ambos do LHC (Large Hadron Collider), mas é tão perto de uma confirmação independente quanto possível para um único instrumento."

Os neutrinos são partículas subatômicas que viajam por todo o Universo quase sem serem influenciados pela matéria, apontando diretamente para as fontes de energia onde foram criados. E para os neutrinos mais energéticos, essas fontes deverão ser os ambientes mais extremos do Universo: poderosos geradores cósmicos, como buracos negros ou a explosão de estrelas gigantescas, objetos capazes de acelerar os raios cósmicos para energias mais de um milhão de vezes superiores àquelas alcançadas pelos aceleradores feitos pelo Homem, como o LHC no CERN.

"Os neutrinos cósmicos são a chave para partes ainda inexploradas do nosso Universo e poderão finalmente revelar as origens dos raios cósmicos mais energéticos," afirma Olga Botner, porta-voz da colaboração e da Universidade de Uppsala. "A descoberta de neutrinos astrofísicos aponta para o início de uma nova era na astronomia."

Os neutrinos nunca são observados diretamente, mas o IceCube é capaz de ver os subprodutos de uma interação entre um neutrino e o gelo da Antártida. Este detector com um quilômetro cúbico regista cem mil neutrinos por ano, a maioria produzidos pela interação dos raios cósmicos com a atmosfera da Terra. Bilhões de múons atmosféricos criados nas mesmas interações também deixam vestígios no IceCube. De todos estes, os pesquisadores procuram apenas algumas dúzias de neutrinos astrofísicos, que vão ampliar a nossa compreensão atual do Universo.

A pesquisa apresentada há poucos dias pela Colaboração IceCube usa uma velha estratégia para um telescópio de neutrinos: observa o Universo através da Terra, usando o nosso planeta para filtrar o grande fundo de múons atmosféricos. Entre maio de 2010 e maio de 2012, foram encontrados nos dados mais de 35.000 neutrinos. À energia mais alta, acima dos 100 TeV (teraelétrons-volt ou trilhões de elétrons-volt), a taxa medida não pode ser explicada por neutrinos produzidos na atmosfera da Terra, indicando a natureza astrofísica dos neutrinos de alta energia. A análise apresentada nesta pesquisa sugere que mais de metade dos 21 neutrinos acima dos 100 TeV têm origem cósmica.

mapa celeste dos 21 eventos mais energéticos

© IceCube (mapa celeste dos 21 eventos mais energéticos)

Esta observação independente, com uma significância de 3,7 sigma e em boa concordância com os resultados anteriores da Colaboração Icecube, também confirma a elevada taxa de neutrinos astrofísicos. Apesar dos cientistas ainda os contarem "ao punhado", os resultados do IceCube estão perto dos valores máximos com base nas fontes potenciais de raios cósmicos. A intensidade deste fluxo mostra que as fontes de raios cósmicos são geradores eficientes de neutrinos. E, portanto, estas pequenas partículas são ainda mais tidas em conta como as ferramentas perfeitas para explorar o Universo extremo.

Os neutrinos de alta energia observados pertencem a uma nova amostra de neutrinos, tendo apenas um evento em comum com os primeiros resultados anunciados em 2013, que procurou neutrinos de alta energia que tinham interagido com o gelo dentro do IceCube durante o mesmo período de obtenção de dados. A pesquisa atual focou-se apenas nos neutrinos do múon. Estes neutrinos produzem um múon quando interagem com o gelo e têm uma assinatura característica no IceCube, que chamam de "track", o que os torna fácil de identificar. É esperada a mesma forma para um múon atmosférico, mas ao observar apenas o Hemisfério Norte, os cientistas sabem que um múon detectado só pode ter sido produzido pela interação de um neutrino.

Estas "tracks" induzidas por neutrinos têm uma boa resolução de apontamento, que podem usar para localizar as suas fontes com uma precisão inferior a 1 grau. No entanto, os estudos do IceCube ainda não encontraram um número significativo de neutrinos provenientes de uma única fonte. O fluxo de neutrinos medidos pelo IceCube no Hemisfério Norte tem a mesma intensidade que o fluxo astrofísico medido no Hemisfério Sul. Isto suporta a ideia de uma grande população de fontes extragaláticas, caso contrário as fontes na Via Láctea dominariam o fluxo em torno do plano galáctico.

Além disso, esta nova amostra de neutrinos de alta energia, quando combinada com as medições anteriores do IceCube, permitem as medições mais precisas, até à data, do espectro de energia e da composição do fluxo de neutrinos extraterrestres.

O IceCube, gerido pela Colaboração Icecube, é um detector de partículas localizado perto da Estação Amundsen-Scott no Pólo Sul. Está enterrado abaixo da superfície e estende-se até uma profundidade de aproximadamente 2.500 metros. Uma rede à superfície, o IceTop, e um subdetector interno mais denso, DeepCore, melhoram significativamente as capacidades do observatório, tornando-o numa instalação multiusos.

Os resultados são a primeira confirmação independente desta descoberta e foram publicados agora na revista Physical Review Letters. E também um segundo artigo foi publicado na revista The Astrophysical Journal.

Fonte: University of Wisconsin-Madison

quinta-feira, 16 de julho de 2015

A descoberta do pentaquark

Cientistas do Large Hadron Collider beauty (LHCb) anunciaram a descoberta de uma nova partícula, batizada de pentaquark.

ilustração de uma partícula pentaquark

© CERN (ilustração de uma partícula pentaquark)

A ilustração acima mostra um pentaquark de uma configuração possível de quarks composta por dois quarks up, um quark down, um quark charm e um antiquark charm.

O LHCb é um dos detectores de partículas construídos no acelerador LHC no European Organization for Nuclear Research (CERN), um acelerador de partículas gigantesco que fica na fronteira entre a França e a Suíça.

O LHCb é um experimento desenvolvido para medidas precisas da violação da simetria CP e decaimentos raros de mésons com o quark bottom ou sua antipartícula.

A simetria CP, é uma simetria quase exata das leis da natureza sobre o efeito do transformação entre partículas em antipartículas, a assim chamada conjugação de Carga, e a inversão das coordenadas espaciais, a Paridade, como por exemplo um elétron de spin-up transformando-se num pósitron de spin-down.

A ideia da simetria CP surgiu quando da descoberta da violação da paridade em certas reações de radioatividade nos anos 1950, mas só foi realmente estabelecida em 1964 quando a interação fraca violava esta simetria.

A primeira previsão da existência do pentaquark foi feita na década de 1960, mas, assim como o Bóson de Higgs, os cientistas não conseguiram detectar o pentaquark durante décadas.

Em 1964, dois físicos, Murray Gell-Mann e George Zweig, propuseram, separadamente, a existência de partículas subatômicas conhecidas como quarks.

Esta teoria afirmava que as propriedades mais importantes de partículas conhecidas como bárions e mésons poderiam ser melhor explicadas se elas fossem formadas por partículas ainda menores. Zweig chamou estas partículas menores de "ases", um nome que não ficou muito popular. Gell-Mann as chamou de "quark", o nome pelo qual elas são conhecidas hoje.

O modelo proposto pelos cientistas também permitiu a descoberta de outros estados dos quarks, como o pentaquark. Esta partícula, que anteriormente tinha uma concepção puramente teórica, é composta de quatro quarks e um antiquark. Isto é equivalente à descoberta de uma nova forma de matéria.

Durante a primeira década dos anos 2000, várias equipes de cientistas alegaram ter detectado os pentaquarks, mas estas descobertas foram questionadas por outros experimentos.

"Existe uma história e tanto com os pentaquarks, por isso estamos sendo muito cuidadosos ao apresentar esta pesquisa," afirmou Patrick Koppenburg, físico coordenador do LHC no CERN.

"É só a palavra 'pentaquark', que parece ser amaldiçoada de alguma forma, pois foram feitas muitas descobertas que, em seguida, foram superadas por novos resultados que mostravam que as anteriores eram flutuações, e não sinais verdadeiros (da existência da partícula)," acrescentou.

Os físicos estudaram a forma como uma partícula subatômica, a Lambda b, se transformou em outras três partículas dentro do LHC. A análise revelou que estados intermediários estavam envolvidos, em algumas ocasiões, na produção das três partículas. Estes estados intermediários foram denominados de Pc+(4450) e Pc+(4380).

"Examinamos todas as possibilidades para estes sinais e concluímos que eles só podem ser explicados pela existência dos estados de matéria pentaquark," afirmou o físico do LHC Tomasz Skwarnicki, da Universidade de Syracuse, nos Estados Unidos.

Experiências anteriores tinham medido apenas a chamada distribuição de massa, na qual um pico estatístico pode aparecer contra o ruído de fundo, um possível sinal da existência de uma nova partícula.

Mas, o colisor permitiu que os pesquisadores analisassem os dados de outras perspectivas, principalmente os quatro ângulos definidos pelas direções diferentes das trajetórias das partículas dentro do LHC.

"Não tem como o que vimos ser devido a qualquer outra coisa que não a adição de uma nova partícula que não tinha sido observada antes," disse Koppenburg.

"O pentaquark não é apenas uma nova partícula qualquer. Representa uma forma de agregar quarks, os principais componentes dos prótons e nêutrons comuns, em um padrão que nunca foi observado antes em mais de 50 anos de buscas experimentais", afirmou Guy Wilkinson, porta-voz do LHC.

Estudar suas propriedades pode permitir uma melhor compreensão de como a matéria comum, os prótons e nêutrons, são constituídos.

O Grande Colisor de Hádrons foi ligado novamente em abril depois de um desligamento que durou dois anos para completar um programa de reparos e atualizações, efetuando colisões com energia de 13 TeV ((teraelétrons-volt ou trilhões de elétrons-volt).

Um artigo foi divulgado na revista especializada Physical Review Letters.

Fonte: CERN

quinta-feira, 7 de maio de 2015

Sinal galáctico na busca da matéria escura

Essa é uma das observações mais disputadas da física. Mas logo poderá haver uma explicação para um misterioso excesso de fótons de alta energia no centro da Via Láctea.

raios γ do Centro Galáctico

© A. Mellinger/T. Linden/NASA (raios γ do Centro Galáctico)

A análise mais recente sugere que o sinal poderia vir de partícula de matéria escura com a massa necessária exata para ser encontrada no maior acelerador de partículas do mundo.
O Grande Colisor de Hádrons (LHC), localizado no laboratório CERN de física de partículas perto de Genebra, na Suíça, deve voltar a colidir prótons neste verão boreal após um hiato de dois anos. Os cientistas pretendem tornar a busca por essa partícula uma das principais metas da segunda ativação do colisor.
Uma detecção positiva esclareceria a fonte dos raios γ (gama) galácticos. Também revelaria a natureza da matéria escura, substância invisível que se acredita compor cerca de 85% da matéria do Universo, seria uma evidência, procurada há muito tempo, da supersimetria, e assim, um forte argumento para se estender o atual modelo padrão da física de partículas.
“Essa poderia ser a explicação mais promissora para o Centro Galáctico já proposta até hoje”, declara Dan Hooper, do Laboratório Nacional do Acelerador Fermi (Fermilab) em Batavia (EUA), mas adiciona que “existem outras que não estão muito atrás”.
Em 2009, Hooper e Lisa Goodenough, então aluna de pós-graduação da New York University, foram os primeiros a identificar o sinal em dados do telescópio espacial de raios gama Fermi, da Nasa. Eles propuseram que a observação era uma assinatura da matéria escura. Duas partículas de matéria escura em colisão aniquilariam uma à outra, assim como ocorre com matéria e antimatéria. A aniquilação geraria uma sucessão de partículas de vida curta que acabariam produzindo raios γ.
Mas a partícula proposta, que foi batizada de hooperon ou gooperon em homenagens aos cientistas, logo encontrou problemas com a versão favorita da supersimetria. Ainda que a extensão supersimétrica mínima do modelo padrão (MSSM) permita partículas de matéria escura com a massa estimada de hooperons, cerca de 25 a 30 gigaeletronvolts (1 GeV é aproximadamente a massa de um próton), vários experimentos já sugeriram que as partículas devem ser mais pesadas que isso. Para acomodar hooperons, a MSSM teria que ser modificada o suficiente para deixar muitos físicos desconfortáveis. “Nós precisaríamos de uma teoria completamente nova”, observa Sascha Caron, físico de partículas da Universidade Radbound Nijmegen, na Holanda, que lidera a equipe responsável pelos cálculos mais recentes.
Céticos sugeriram que o excesso de raios γ observado nos dados do Fermi tinham explicações mais simples, como emissões de estrelas de nêutrons ou resquícios de explosões estelares.
Mas no final de 2014, perceberam que os cálculos para a variação da massa de partículas de matéria escura que seriam compatíveis com as observações do Fermi eram conservadores demais. Novas estimativas do ‘ruído’ de raios γ produzido por fontes conhecidas, fornecidas pela equipe científica do Fermi e outras, permitem partículas muito mais pesadas. “O excesso pode ser explicado com uma partícula de até 200 GeV”, explica Simona Murgia, física da University of California, Irvine, e uma das principais cientistas da equipe do Fermi.
Armados com essa ideia, Caron e seus colaboradores recalcularam as previsões da teoria MSSM e encontraram outra possível explicação para o excesso, um candidato existente à matéria escura chamado de neutralino. O neutralino era pesado o suficiente para não ser excluído por experimentos anteriores, mas leve o suficiente para poder ser produzido na segunda ativação do LHC.
O modelo de Caron também permite uma previsão para a quantidade de matéria escura que deveria ter sido criada no Big Bang, que é compatível com observações da radiação cósmica de fundo, a radiação remanescente do Big Bang, realizadas pela sonda Planck, da ESA. Isso não pode ser uma coincidência, afirma ele. “Eu acho isso incrível”.
A equipe de Caron não é a única reavaliando as observações do Fermi sob a perspectiva das novas estimativas. Cálculos semelhantes, mas menos detalhados, realizados pelo físico Patrick Fox, do Fermilab, e seus colegas em novembro último também revelaram o neutralino como uma possível causa dos raios γ do Fermi. E Katherine Freese, diretora do Nordita, o Instituto Nórdico de Física Teória em Estocolmo, declara que ela e seus colaboradores calcularam que o excesso poderia ser provocado por um tipo de matéria escura que faz parte de uma teoria menos popular da supersimetria.
A resolução desses problemas pode estar logo adiante. Além de ser produzido no LHC, o neutralino também poderia estar ao alcance de experimentos subterrâneos da próxima geração, prontos a detectar partículas de matéria escura que por acaso atravessem a Terra, informa o físico Albert De Roeck. Roeck trabalha no CMS, um dos dois detectores do LHC que caçarão a matéria escura. Se essa partícula realmente for a causa dos raios γ, é possível que os sinais de matéria escura sejam observados muito em breve.

Fonte: Nature

sábado, 2 de maio de 2015

Descoberto monopolo no campo quântico

Pesquisadores da Universidade de Aalto (Finlândia) e Amherst College (EUA) tem observado um monopolo no campo quântico pela primeira vez.

ilustração de um monopolo no campo quântico

© Heikka Valja (ilustração de um monopolo no campo quântico)

Esta descoberta se conecta às características importantes do elusivo monopolo magnético. Os pesquisadores realizaram um experimento em que manipularam um gás de átomos de rubídio preparados em um estado não imantado perto da temperatura do zero absoluto. Sob estas condições extremas foi possível criar um monopolo no campo da mecânica quântica que descreve o gás.
"Neste estado não magnético, foi criada uma estrutura no campo descrevendo o gás, assemelhando-se ao monopolo magnético, conforme descrito nas grandes teorias unificadas da física de partículas. Anteriormente, foi utilizada um gás para detectar um monopolo dentro de um chamado campo magnético sintético, mas não houve a ocorrência de monopolo no campo quântico que descreve o próprio gás. Agora finalmente testemunhamos a existência do monopolo da mecânica quântica!", alega o Dr. Mikko Möttönen da Universidade Aalto.

condensado de Bose-Einstein contendo o monopolo

© U. Aalto (condensado de Bose-Einstein contendo o monopolo)

A imagem acima mostra um condensado de experimentalmente criado de Bose-Einstein contendo um monopolo (à esquerda) e a previsão teórica correspondente (à direita). Área mais clara tem maior densidade de partículas e as diferentes cores indicam o estado de rotação interna dos átomos. O monopolo está localizado no centro do condensado.

No estado não magnético do gás, não há remoinhos quânticos ou monopolos que são criados no campo magnético sintético. Entretanto, a ordem magnética prevalece na amostra no campo da mecânica quântica, e os cientistas foram capazes de manipular isso com ajustes para um campo magnético aplicado externamente.
"O controle desses campos magnéticos deve ser estável a uma pequena fração do tamanho do campo magnético da Terra", acrescenta o Prof. David Hall do Amherst College. "O principal desafio experimental que enfrentamos foi preparar o gás criogênico em condições altamente sensíveis, em que as flutuações do campo devido ao movimento de objetos metálicos ou variações de linha de energia podem propiciar a observação dos monopolos difíceis".
O resultado é um notável avanço na pesquisa na área quântica. É importante compreender a estrutura dos monopolos e outras entidades topológicas, porque elas aparecem nos modelos que descrevem o Universo precoce e afeta as propriedades de muitos materiais diferentes, tais como os metais.
A descoberta de uma partícula de monopolo magnético poderá ocorrer no futuro. Este novo resultado estabelece que a estrutura de um monopolo na mecânica quântica pode ser exibido na natureza e, portanto, suporta ainda a possibilidade de que existem monopolos magnéticos.

Fonte: Science

Polarons viajando em material fotoativo

Pesquisadores do Instituto de Tecnologia de Karlsruhe (KIT) têm revelado um importante passo na conversão de luz em energia armazenável.

migração de polarons em ZnO

© Patrick Rinke/Aalto University (migração de polarons em ZnO)

Cientistas do Instituto Fritz Haber, em Berlim (Alemanha) e da Universidade Aalto em Helsinque (Finlândia) estudaram a formação dos chamados polarons em óxido de zinco (ZnO).

As pseudopartículas viajam através do material fotoativo até que elas são convertidas em energia elétrica ou química numa interface.

Processos de conversão da luz em energia armazenável podem contribuir de forma decisiva para um fornecimento de energia sustentável. Há bilhões de anos, a natureza vem utilizando esses processos para a fotossíntese para formar carbohidratos com a ajuda da luz. Na pesquisa, a fotocatálise que utilza a luz para acelerar processos químicos está ganhando importância. Nos últimos anos, os pesquisadores também realizaram progressos consideráveis ​​em células fotovoltaicas convertem a luz solar incidente diretamente em energia elétrica, com eficiência constantemente melhorada.
No entanto, os processos de energia fotovoltaica subjacentes dificilmente têm sido estudadas em detalhe até aqui. "A conversão de fótons, ou seja, partículas de luz, em energia elétrica tem várias etapas," explica o professor Christof Wöll, chefe do Instituto de Interfaces Funcionais (IFG) do KIT. Primeiro, a luz é absorvida num material fotoativo, onde elétrons individuais são removidos de suas posições na rede atômica e deixando lacunas. Os pares elétron-lacuna são estáveis ​​apenas durante um curto prazo de tempo. Em seguida, eles decaiem sob a emissão de luz ou são separados se movendo no material de forma independente um do outro. O destino desta partícula carregada então depende do material.
Na maioria dos materiais, as lacunas livres não são estáveis, convertendo-se em um polaron, o que pode envolver perda de energia. Um polaron é uma pseudopartícula descrita é composta por uma carga positiva e a sua interação com o seu ambiente. Pesquisadores do KIT sob a direção do Professor Christof Wöll já realizadas experiências usando material de óxido de zinco fotoactivo, a fim de estudar a formação ea migração de polarons. Os pesquisadores do KIT empregaram uma configuração experimental única a nível mundial para a espectroscopia de absorção de reflexão de infravermelha (IRRAS) com uma resolução temporal de 100 milissegundos e o infravermelho medido em monocristais de óxido de zinco, onde observaram bandas de absorção intensivos, ou seja, impressões digitais, de uma pseudopartícula até agora desconhecida. A interpretação dos dados e identificação desta nova pseudopartícula foram grandes desafios para os pesquisadores. Em cooperação com um grupo de trabalho no Instituto Fritz Haber e do Centro de Excelência para Nanociência Computacional (COMP), da Universidade de Aalto, no entanto, eles conseguiram de forma inequívoca atribuição das bandas de absorção denominadas de lacunas de  polarons. "Esta é uma importante descoberta feita em 2015, o Ano Internacional da Luz e tecnologias baseadas na Luz", diz o professor Wöll.

Esta descoberta relevante para a energia fotovoltaica foi publicada na revista Nature Communications.

Fonte: Karlsruhe Institute of Technology

domingo, 29 de março de 2015

Cristais quadrados de gelo

Quando a água está confinada em alta pressão entre folhas de grafeno suas moléculas adotam uma configuração quadrada.

cristais de gelo entre folhas de grafeno

© Universidade de Ulm (cristais de gelo entre folhas de grafeno)

A imagem mostra uma bolsa de gelo entre duas folhas de grafeno visto em um microscópio eletrônico de transmissão. As manchas escuras de alto contraste são átomos de oxigênio que indicam posições de moléculas de água. Os átomos de hidrogênio deu muito pouco contraste fornecendo baixa resolução.

Uma equipe de físicos da Universidade de Ciência e Tecnologia da China, da Universidade de Manchester, Reino Unido, e da Universidade de Ulm, na Alemanha observaram esta configuração quadrada.
Em nosso cotidiano, estamos familiarizados com água em suas formas líquidas mais comum, de gelo e de vapor.

Os pesquisadores também analisaram a água sob condições mais extremas, incluindo com pressões elevadas, onde ela pode existir no estado sólido mesmo à temperatura ambiente.

Os cristais de gelo nas formas tetraédricas lindamente simétricas podem ser vistos em flocos de neve e na superfície de lagos congelados. Essas geometrias podem persistir em situações de pressões muito elevadas, mesmo que a estrutura subjacente sofre mudanças de fase tanto sutis e dramáticas com variação da pressão. Isso certamente se aplica à água sem restrições.

Quando confinado entre outros materiais, no entanto, o comportamento de água é influenciada por interações com superfícies de materiais nucleares.

Em um novo estudo realizado pelo Dr. Gerardo Algara-Siller da Universidade de Ulm, e seus colegas, uma monocamada grafeno foi primeiro depositada sobre uma grelha de microscópio eletrônico de transmissão, e em seguida exposta a uma gota de água e coberta com uma outra camada de grafeno.

Grande parte da água foi espremida para fora do sanduíche de grafeno pela força de van der Waals. O restante foi preso em bolsas com menos de um milionésimo de metro de diâmetro.

"Nós não sabíamos a princípio o que estávamos vendo, e apenas em discussão com os nossos colegas de Manchester foi concebida a ideia de gelo quadrado", disse o Prof. Ute Kaiser, da Universidade de Ulm, um co-autor do estudo.

Este estudo pode melhorar a nossa compreensão do transporte de água através de canais em escala nanométrica em membranas naturais e artificiais.

Os resultados foram publicados na revista Nature.

Fonte: Universitäten Ulm

domingo, 15 de fevereiro de 2015

Descobertas duas novas partículas

Físicos do Large Hadron Collider (LHC) do European Organization for Nuclear Research (CERN) detectaram duas partículas subatômicas nunca vistas antes.

ilustração da partícula Ξb

© APS/Alan Stonebraker (ilustração da partícula Ξb)

As partículas Ξb foram previstas pelo modelo de quarks e estima-se que possuem cerca de seis vezes a massa do próton, sendo que em experiências anteriores não foram detectadas devido à energia insuficiente para produzir essas partículas massivas. As detecções com novas medidas de precisão das massas das partículas Ξb, irão colocar restrições mais rígidas sobre a teoria da física de partículas.

O quark, na física de partículas, é uma partícula elementar e um dos dois elementos básicos que constituem a matéria. Outro é o lépton, como o elétron (e-), o múon e seus neutrinos. Os quarks se combinam para formar partículas compostas chamadas hádrons; os mais estáveis desse tipo são os prótons e os nêutrons, que são os principais componentes dos núcleos atômicos. Devido a um fenômeno conhecido como confinamento, os quarks nunca são diretamente observados ou encontrados isoladamente; eles podem ser encontrados apenas dentro de hádrons e os mésons. Existem seis tipos de quarks: up, down, strange, charm, bottom, e top. Os quarks up e down possuem as menores massas entre todos os quarks. Os quarks mais pesados mudam rapidamente para quarks up down por meio de um processo de decaimento. Devido a isso, quarks up e down são geralmente estáveis e são os mais comuns no Universo, enquanto que os quarks strange, charm, bottom e top só podem ser produzidos em colisões de alta energia, como as que envolvem os raios cósmicos e em aceleradores de partículas.

Os novos quarks descobertos vêm das três famílias: up/down, strange/charm e bottom/top. Em 2007, os físicos observaram a primeira partícula com um quark de cada família: Ξ-b, composto por um bottom, um strange, e um down, dando-lhe uma carga negativa de -1. No entanto, esta é apenas a versão de menor massa dessa combinação de três famílias de quarks. A teoria do modelo de quarks prevê a existência de dois primos de massa mais elevada de Ξ-b, chamados Ξ'-b e Ξ*-b, os quais são caracterizados pela seu spin de 1/2 e 3/2, respectivamente.

Para confirmar a existência dessas partículas Ξ-b de curta duração, o experimento Large Hadron Collider beauty (LHCb) no CERN observou a evidência do decaimento das partículas Ξ-b em dados de colisões próton-próton em energias de 7 e 8 TeV (tera-elétron-volts). Especificamente, eles investigaram o decaimento para um Ξ0b neutro e um píon de carga negativa (π-). Eles observaram assinaturas para as duas partículas com massas de 5.935 e 5.955 MeV (mega-elétron-volts), correspondendo as partículas Ξ'-b e Ξ*-b, respectivamente. Os resultados vieram como uma surpresa, já que muitos modelos previram que a Ξ'-b não era massiva o suficiente para se decompor por este caminho, e uma busca em outro experimento do CERN não tinha encontrado o decaimento equivalente a uma partícula intimamente relacionada à partícula Ξ'0b. Usando as novas medições muito precisas de massa, os teóricos serão capazes de aperfeiçoar os seus modelos, especificamente aqueles que prevêem a massa de outras partículas à base de quarks.

Fonte: Physical Review Letters

Curvatura quântica da luz

A luz viajando perto de um objeto é desviada de seu caminho por causa da força da gravidade.

curvatura quântica da luz

© NASA (curvatura quântica da luz)

Para um objeto de grande massa como o Sol, este desvio é mensurável. As melhores medições até o momento mostram que a atração gravitacional do Sol desvia a luz por 0,00049º de acordo com as previsões da relatividade geral. Agora Niels Bjerrum-Bohr, do Instituto Niels Bohr, na Dinamarca, e colegas calcularam como esse desvio seria alterado quando a gravidade é descrita como um campo quântico.

Os autores descrevem a gravidade usando uma teoria de campo eficaz, uma aproximação de baixa energia de uma possível teoria quântica de campo subjacente da gravidade. Isto permitiu-lhes computar a junção de fótons com efeitos gravitacionais, formulando uma solução analítica para o problema da deflexão da luz por um objeto pesado, como o Sol ou um buraco negro de Schwarzschild. Embora a sua correção quântica predita é demasiado pequena para ser medido experimentalmente, onde o efeito da gravidade é 80 ordens de grandeza maior, eles mostram que os efeitos quânticos causam uma diferença. Esta diferença decorre do fato de que as partículas sem massa como fótons não estão mais restritas a viajar exatamente sobre geodésicas, ou seja, na relatividade geral, as linhas retas modificados pela curvatura do espaço-tempo ao longo de qualquer movimento de partículas em queda livre. Em particular, elas são previstas para dobrar de forma diferente dependendo da sua rotação.

Estas alterações do comportamento previsto pela relatividade geral denota o desvio do princípio da equivalência de Einstein. A estrutura computacional apresentada pelos autores fornece uma maneira simples de avaliar os possíveis efeitos da gravidade quântica em e outros fenômenos cosmológicos.

Fonte: Physical Review Letters

segunda-feira, 12 de janeiro de 2015

Máquinas de spins

Uma equipe coordenada pelo físico Roberto Serra, da Universidade Federal do ABC (UFABC), determinou quanta energia um núcleo atômico pode ganhar ou perder quando é atingido por um pulso de ondas de rádio.

spins

© Cornell University/LASSP (spins)

A maioria dos pesquisadores estava convencida de que o comportamento do núcleo seria imprevisível. Jamais se conheceriam as probabilidades de o núcleo absorver energia das ondas, tornando-se mais quente, ou de esfriar ao transmitir parte de sua energia para elas.

As novas experiências feitas no Centro Brasileiro de Pesquisas Físicas (CBPF), no Rio de Janeiro, demonstram que essa troca de energia obedece a leis da física nunca antes testadas no mundo subatômico. Essas leis podem ajudar a entender melhor reações químicas como a fotossíntese das plantas e a determinar quanta energia os computadores quânticos usarão para funcionar. “Esse é o primeiro experimento de uma nova área da física, a termodinâmica quântica”, diz Serra.

Computadores quânticos prometem usar as leis da mecânica quântica para superar exponencialmente o poder de cálculo dos computadores convencionais. Mas quanta energia esse novo tipo de computação gastará na prática? Quanto calor essas máquinas produzirão ao funcionar? Vão precisar de refrigeração? Responder a essas questões é um dos objetivos da termodinâmica quântica.

Perguntas semelhantes pairavam no ar durante a Revolução Industrial, no século XIX. Qual o mínimo de carvão que os fornos precisariam consumir e a que temperatura as caldeiras deveriam chegar para que as máquinas a vapor alcançassem sua eficiência máxima? Os cientistas da época perceberam que tanto o calor quanto a capacidade das máquinas de trabalharem são formas diferentes de uma mesma quantidade física, a energia, que nunca é criada a partir do nada nem destruída, apenas transformada. Ao investigar a conversão de uma forma de energia em outra, eles descobriram as leis da termodinâmica clássica.

De acordo com essas leis, a energia flui espontaneamente de um volume com temperatura quente para outro mais frio. E uma máquina, mesmo que ideal, só pode converter parte da energia disponível na forma de calor em energia capaz de realizar movimentos mecânicos, isto é, realizar o que se conhece em física como trabalho. “A termodinâmica impõe limites a qualquer tecnologia”, diz Serra.

Os engenheiros vitorianos resolveram seus problemas, mas à custa de um pequeno truque. Seus cálculos só funcionavam quando se considerava que as máquinas estavam isoladas termicamente do resto do mundo, trocando pouco calor com o ambiente. Era preciso ainda que esses processos fossem lentos. Mas essas aproximações não servem na maioria das situações que ocorrem na natureza, em muitas reações químicas, por exemplo. Quando é impossível isolar termicamente um objeto de seu ambiente por muito tempo, a temperatura aumenta e diminui de maneira aparentemente imprevisível, ao contrário do que ocorre nos sistemas isolados, onde tudo tende ao equilíbrio.

Foi apenas em 1997 que o físico-químico Christopher Jarzynski descobriu uma expressão matemática capaz de calcular as variações de energia e de trabalho mecânico que acontecem fora do equilíbrio. “A equação de Jarzynski e outros teoremas de flutuação permitem que os químicos meçam em laboratório a variação de energia de uma molécula antes e depois de uma reação”, explica Serra.

O próprio Jarzynski, em colaboração com uma equipe da Califórnia, confirmou sua equação em 2005, observando o trabalho mecânico de uma molécula de RNA esticada e comprimida como uma mola. Serra nota entretanto que, apesar de microscópico, o movimento da molécula de RNA era grande o suficiente para poder ser calculado usando a famosa fórmula derivada das leis da mecânica de Newton: “Trabalho é igual força vezes deslocamento”.

As equações da termodinâmica, seja dentro ou fora do equilíbrio, foram deduzidas usando a mecânica de Newton. Mas as leis de Newton perdem sentido para vários processos que acontecem nas moléculas e para todos os que ocorrem no interior dos átomos por não ser possível medir forças e deslocamentos com precisão. Nessas escalas valem outras leis, as da mecânica quântica. Serra queria saber se equações como a de Jarzinsky ainda valeriam nesse mundo subatômico. Esse conhecimento ajudaria a entender reações químicas como a fotossíntese. Na fotossíntese, moléculas nas células das folhas funcionam como máquinas quânticas que absorvem energia das partículas de luz e a armazenam na forma de moléculas de açúcar. “O processo é muito eficiente, quase não gera calor”, diz Serra. “Estudos sugerem que é um processo quântico.”

Serra, seus alunos e colegas na UFABC tentavam havia algum tempo estudar a termodinâmica quântica em laboratório, junto com a equipe dos físicos Alexandre Souza, Ruben Auccauise, Roberto Sarthour e Ivan Oliveira, que trabalham com a técnica de ressonância magnética nuclear no CBPF. Os dois grupos mantêm uma parceria que já rendeu várias descobertas.

No centro do equipamento no laboratório do CBPF fica um pequeno tubo de ensaio contendo uma solução puríssima de clorofórmio diluído em água. Cada uma dos cerca de 1 trilhão de moléculas de clorofórmio da solução possui um átomo de carbono-13. O núcleo desse tipo de carbono tem uma propriedade quântica chamada spin, que lembra um pouco a agulha de uma bússola magnética e pode ser representada por uma seta. Sob um forte campo magnético paralelo ao tubo, apontando de baixo para cima, as setas desses spins tendem a se alinhar com o campo, metade delas apontando para baixo e metade para cima. O campo magnético também faz com que os spins apontando para baixo tenham mais energia que os spins voltados para cima.

infográfico da máquina quântica

© UFABC/Roberto Serra (infográfico da máquina quântica)

Os físicos manipulam os spins por meio de campos eletromagnéticos, que oscilam com uma frequência de 125 MHz (megahertz); o equipamento precisa ser isolado para não captar as estações de rádio FM que transmitem nessa frequência. Essas manipulações são feitas por meio de pulsos de onda e não duram mais que alguns microssegundos. O experimento acontece tão rapidamente que é como se, por alguns instantes, cada átomo de carbono no tubo de ensaio estivesse isolado do resto do Universo, submetido a uma temperatura muito próxima do zero absoluto (-273º Celsius). Os pesquisadores conseguem diminuir ou aumentar a diferença de energia entre os spins para baixo e para cima quando reduzem ou aumentam a amplitude de suas ondas de rádio. Quando essa mudança de amplitude é muito rápida, os spins saem de seu isolamento térmico e começam tanto a absorver energia das ondas de rádio – situação em que as ondas realizam trabalho sobre os spins – quanto a transmitir parte de sua energia para as ondas, realizando trabalho sobre elas. “Isso é muito difícil de medir, pois os spins dos carbonos podem trocar energia de quatro maneiras diferentes, todas acontecendo ao mesmo tempo, de maneira probabilística”, explica Serra. “Conheci um grupo na Alemanha que tentou fazer esse mesmo experimento por cinco anos sem sucesso.”

O que impediu o sucesso do grupo alemão, segundo Serra, foi o fato de os físicos tentarem medir diretamente quantas vezes a energia era emitida ou absorvida pelos spins. “O erro acumulado nessas medidas era tão grande que no fim não conseguiam determinar nada”, explica.

A solução chegou mais cedo para Serra, em fevereiro de 2013, quando o físico Mauro Paternostro, da Queen’s University, em Belfast, Irlanda, apresentou um seminário na UFABC sobre propostas inéditas de se observar o trabalho produzido por partículas de luz de maneira indireta. Logo Paternostro, atualmente professor visitante na UFABC, e Laura Mazzola, sua colega em Belfast, começaram a discutir com Serra, Auccauise e o estudante de doutorado na UFABC Tiago Batalhão como adaptar essas técnicas para observar o trabalho dos spins de carbono indiretamente. Com John Good, da Universidade de Oxford, Inglaterra, a equipe descobriu um modo esperto de usar os spins dos núcleos de hidrogênio das moléculas de clorofórmio para espiar o que acontece com os spins dos átomos de carbono enquanto realizam trabalho, sem interferir no processo.

A precisão do experimento foi suficiente para registrar variações de temperatura nos spins de carbono da ordem de bilionésimos de graus e verificar que a equação de Jarzinsky vale na escala subatômica. Outro resultado interessante: os spins de carbono possuem uma tendência maior de extrair energia das ondas de rádio quando a amplitude do pulso de onda é reduzida. A tendência se inverte quando a amplitude de onda é aumentada: os spins tendem a transferir energia para as ondas, ou seja, fazer trabalho sobre as ondas.

“Podemos explorar essa diferença para criar uma máquina térmica quântica”, diz Serra. A máquina funcionaria alternando pulsos de amplitude reduzida e aumentada entre dois estados de equilíbrio térmico, cada um com uma temperatura diferente. A máquina funcionaria de maneira parecida com a de um motor a combustão, que realiza trabalho mecânico com parte da energia química transformada em calor com a explosão do combustível.

A máquina de spins teria pouca utilidade: o trabalho produzido forneceria uma energia ínfima para as ondas de rádio, apenas suficiente para mexer o spin de um núcleo atômico qualquer. Serra está mais interessado em medir quanta energia ela gasta e quanto calor ela dissipa durante seu funcionamento.

“A técnica aplicada nesse experimento tem grande potencial”, diz o físico Lucas Céleri, da Universidade Federal de Goiás, que planeja observar a termodinâmica de uma única partícula de luz em parceria com os físicos Paulo Souto Ribeiro e Stephen Walborn, da Universidade Federal do Rio de Janeiro. “Avanços experimentais são muito raros na termodinâmica quântica, devido à necessidade de controlar o sistema quântico e seu isolamento do ambiente.”

Fonte: FAPESP (Pesquisa)

sábado, 10 de janeiro de 2015

Acelerador de partículas compacto

Um acelerador de partículas pequeno atingiu energias que competem com instalações de grande extensão.

XBD201410-01236.TIF

© Berkeley Lab (acelerador de partículas compacto)

O pesquisador Wim Leemans e seus colegas do Laboratório Nacional Lawrence Berkeley (EUA) aceleraram elétrons no interior de um tubo de plasma com apenas 9 cm de comprimento. A velocidade alcançada pelos elétrons correspondeu a uma energia de 4,25 GeV (gigaelétron-volts).

A aceleração em uma distância tão curta corresponde a um gradiente de energia mil vezes maior do que a obtida nos aceleradores de partículas tradicionais e marca um recorde mundial de energia para aceleradores desse tipo, conhecidos como laser-plasma. Em 2013, outra equipe havia alcançado 2 GeV em um acelerador de 2 cm de comprimento.

Neste ano, o LHC (Large Hadron Collider), que tem 27 km de diâmetro, deverá atingir energias totais de 14 TeV (teraelétron-volts). Mas mesmo instalações de tamanho padrão exigem túneis com centenas de metros de comprimento para chegar aos gigaelétron-volts (GeV).

simulação da evolução do plasma

© Berkeley Lab (simulação da evolução do plasma)

A imagem acima mostra uma simulação computadorizada da evolução do plasma no interior do pequeno acelerador.

Aceleradores de partículas tradicionais, como o LHC, aceleram as partículas modulando campos elétricos dentro de conduítes metálicos. É uma técnica que tem um limite de cerca de 100 MeV/m (megaelétron-volts por metro), porque além disso o próprio metal do conduíte é destruído.

Os aceleradores laser-plasma adotam uma abordagem completamente diferente. No caso deste experimento, um pulso de luz laser é injetado em um tubo cheio de plasma por uma abertura de apenas 500 micrômetros. O laser cria um canal através do plasma, assim como ondas que capturam elétrons livres e os aceleram.

A equipe acredita poder alcançar os 10 GeV com este pequeno acelerador de elétrons. Para isso, segundo Leemans, eles precisarão controlar com mais precisão a densidade do canal de plasma através do qual o laser flui. Em essência, eles precisarão criar um túnel para o pulso de luz que tenha o formato preciso para lidar com os elétrons mais energéticos.

O acelerador de partículas de diminuta dimensão depende de um poderoso laser para gerar os pulsos de alta potência que devem ser injetados no plasma. Neste experimento foi usado um dos lasers mais poderosos do mundo, o BELLA (Berkeley Lab Laser Accelerator), capaz de atingir energias na classe dos petawatts (quatrilhões de watts).

Os resultados aparecem no periódico Physical Review Letters.

Fonte: Lawrence Berkeley National Laboratory

sábado, 1 de novembro de 2014

Mundo quântico surge de mundos clássicos?

Uma nova teoria sugere que o comportamento bizarro do mundo quântico, com objetos existindo em dois locais simultaneamente e a luz se comportando tanto como ondas quanto como partículas, poderia resultar de interações entre muitos mundos “paralelos”.

universos paralelos

© Revista Planeta (universos paralelos)

“Essa é uma mudança fundamental em relação a interpretações quânticas anteriores”, declara Howard Wiseman, teórico quântico da Griffith University em Brisbane, na Austrália.
Teóricos já tentaram explicar o comportamento quântico por meio de vários modelos matemáticos. Uma das interpretações mais antigas visualiza o mundo surgindo a partir de existência de muitos mundos quânticos simultâneos. Mas essa abordagem de “muitos mundos”, defendida pelo teórico Hugh Everett III nos anos 50, se baseia em mundos surgindo de maneira independente uns dos outros, sem qualquer interação entre si.
Em contraste, a equipe de Wiseman visualiza muitos mundos se chocando uns com os outros, chamando a abordagem de “muitos mundos em interação”. Quando isolado, cada mundo é governado pela física newtoniana clássica. Juntos, porém, o movimento de interação desses mundos dá origem a fenômenos que físicos normalmente relacionam ao mundo quântico.
Os autores tentam resolver a matemática de como essa interação poderia produzir fenômenos quânticos. Um exemplo bem conhecido do comportamento quântico é partículas que conseguem tunelar através de uma barreira energética que, em um mundo clássico, não conseguiriam atravessar sozinhas. Wiseman aponta que, nesse cenário, conforme dois mundos clássicos se aproximam de uma barreira energética pelos dois lados, um deles aumenta sua velocidade enquanto o outro se choca com a barreira e recua. Dessa forma, o primeiro mundo aparecerá do outro lado de uma barreira aparentemente intransponível, assim como partículas fazem durante o tunelamento quântico.  
Os físicos descrevem vários outros exemplos de fenômenos quânticos que acreditam poder ser explicados por muitos mundos em interação. Eles calculam, por exemplo, como 41 mundos em interação poderiam dar origem à interferência quântica vista no famoso experimento da dupla fenda, que demonstrou que a luz pode se comportar tanto como onda, quanto como partícula.
Mas muito trabalho ainda é necessário. “De forma alguma respondemos todas as perguntas suscitadas por essa mudança”, alerta Wiseman. Dentre outra coisas, ele e seus colaboradores ainda precisam superar desafios como o de explicar como sua teoria de muitos mundos em interação poderia resolver o emaranhamento quântico, um fenômeno em que partículas separadas por grandes distâncias ainda ficam ligadas em termos de suas propriedades.
Wiseman espera poder recrutar outros pesquisadores para ajudar a enfrentar outras perguntas, como os tipos de forças necessárias para que mundos interajam entre si, e se esses mundos precisam de condições iniciais especiais para interagirem de qualquer forma. “O que me motiva é a busca por uma teoria atraente da realidade que reproduza fenômenos quânticos de maneira natural”, conta ele.
Charles Sebens, filósofo da física da University of Michigan, em Ann Arbor, declara estar empolgado com a nova abordagem. Ele desenvolveu ideias semelhantes de maneira independente, que batizou com o nome paradoxal de “Mecânica Quântica Newtoniana”. Essencialmente, ele usa uma abordagem diferente daquela aplicada pelo grupo de Wiseman, ainda que a ideia geral seja a mesma. “Eles produzem análises muito boas de fenômenos particulares, como níveis de energia fundamental e tunelamento quântico; eu discuto probabilidade e simetria com mais profundidade”, explica Sebens. “Acredito que eles fazem um ótimo trabalho apresentando essa empolgante ideia nova”. Sebens escreveu um artigo que será publicado no periódico Philosophy of Science descrevendo sua abordagem.
O próximo passo da equipe será encontrar maneiras de testar seus dados. Wiseman aponta que, se a abordagem de muitos mundos em interação for verdadeira, ela provavelmente fará previsões levemente diferentes da teoria quântica. “Nós ainda não descobrimos como seriam esses desvios, mas eu acho que seriam muito diferentes do tipo de desvios que as pessoas estão procurando atualmente”.

Fonte: Physical Review X

quarta-feira, 15 de outubro de 2014

Partícula de Majorana em ferro supercondutor

Desde a década de 30, cientistas procuram partículas que sejam ao mesmo tempo matéria e antimatéria.

microscópio de tunelamento por varredura

© Princeton University (microscópio de tunelamento por varredura)

Físicos usaram um microscópio de tunelamento por varredura para produzir imagens de uma fina cadeia de átomos de ferro disposta sobre a superfície de um supercondutor de chumbo (barra amarela). As cores da imagem representam a probabilidade quântica de qualquer local conter uma partícula de Majorana, que é tanto matéria quanto antimatéria. A porção ampliada mostra que a probabilidade de encontrar uma partícula de Majorana aumenta muito nas extremidades do fio, como previsto em teoria.

Agora foram encontradas fortes evidências de uma entidade desse tipo dentro de um material supercondutor. A descoberta poderia representar a primeira “partícula de Majorana”, e poderia ajudar pesquisadores a codificar informações para computadores quânticos. 
Acredita-se que todas as partículas de matéria tenham uma contraparte de antimatéria com massa igual, mas carga diferente. Quando a matéria encontra seu equivalente de antimatéria, as duas se aniquilam.
De acordo com uma previsão realizada em 1937 pelo físico italiano Ettore Majorana, porém, algumas partículas podem ser suas próprias parceiras de antimatéria. Pela primeira vez pesquisadores declararam ter produzido imagens de uma dessas partículas de Majorana.
A nova partícula de Majorana apareceu em supercondutor, material em que o livre movimento de elétrons permite que a eletricidade flua sem resistência.
A equipe de pesquisa, conduzida por Ali Yazdani da Princeton University, posicionou uma longa cadeia de átomos de ferro, magnetizável, sobre a superfície de um supercondutor feito de chumbo.
O magnetismo normalmente prejudica supercondutores, que dependem da ausência de campos magnéticos para que seus elétrons fluam livremente. Nesse caso, porém, o campo magnético se transformou em um tipo especial de supercondutor, em que elétrons próximos uns dos outros coordenavam seus spins para satisfazer simultaneamente as exigências de magnetismo e supercondutividade.
Cada um desses pares pode ser entendido como um elétron e um antielétron, com carga negativa e positiva, respectivamente. Mas esse arranjo deixa um elétron em cada ponta da cadeia sem par, fazendo com que assumam as propriedades tanto de elétrons quanto de antielétrons, em outras palavras, de partículas de Majorana.  
Assim como partículas no vácuo, sem contato com outros tipos de matéria, essas entidades são chamadas de “partículas emergentes”. Elas emergem das propriedades coletivas da matéria adjacente e não poderiam existir fora do supercondutor.
O novo estudo mostra uma assinatura convincente de partículas de Majorana, declara Leo Kouwenhoven da Universidade de Tecnologia Delft, na Holanda, que não se envolveu na pesquisa mas que encontrou sinais de partículas de Majorana em um arranjo supercondutor diferente. “Mas para realmente falarmos sobre provas completas e evidências sem ambiguidade, precisaríamos de um teste”.
Esse teste deve mostrar que as partículas não obedecem às leis normais das duas classes de partículas conhecidas na natureza, férmions (prótons, elétrons e a maioria das partículas com que estamos acostumados) e bósons (fótons e outras partículas que carregam forças, incluindo o bóson de Higgs). “A melhor coisa das Majoranas é que elas podem ser uma nova classe de partícula”, adiciona Kouwenhoven. “Se for encontrada uma nova classe de partículas, adiciona-se um novo capítulo à física”.
O físico Jason Alicea do Instituto de Tecnologia da Califórnia, que também não participou da pesquisa, declara que o estudo oferece “evidências convincentes” de partículas de Majorana, mas que “nós deveríamos manter explicações alternativas em mente, mesmo se não houverem candidatos imediatamente óbvios”.
Ele elogiou a configuração experimental por sua aparente capacidade de produzir as elusivas partículas de Majorana com facilidade. “Uma das maiores virtudes de sua plataforma em relação a trabalhos anteriores é permitir que pesquisadores apliquem um novo tipo de microscópio para analisar a anatomia detalhada da física”.
A descoberta poderia ter implicações para a procura de partículas de Majorana livres fora de materiais supercondutores. Muitos físicos suspeitam que neutrinos, partículas extremamente leves com a estranha capacidade de alterar suas identidades, ou “sabores”, sejam partículas de Majorana, e experimentos estão sendo realizados para investigar essa hipótese.
Yazdani aponta que, agora que sabemos que partículas de Majorana podem existir dentro de supercondutores, pode não ser surpreendente encontrá-las na natureza. “Uma vez que o conceito esteja correto, é muito provável que ele apareça em outra camada da física. Isso é empolgante”.
A descoberta também poderia ser útil para construir computadores quânticos que façam uso das leis da mecânica quântica para realizar cálculos muitas vezes mais rapidamente que computadores convencionais.
Um dos principais problemas na construção de um computador quântico é a suscetibilidade de propriedades quânticas, como o emaranhamento (uma conexão tal entre duas partículas, que agir sobre uma delas afeta a outra), a colapsar devido à interferência externa.
Uma cadeia de partículas com Majoranas em cada extremidade seria quase imune a esse risco, porque seria necessário danificar as duas extremidades simultaneamente para destruir quaisquer informações codificadas nela. “Poderíamos construir um bit quântico com base nessas partículas de Majorana”, declara Yazdani. “A ideia é que esse bit seja muito mais robusto para o ambiente que os tipos de bits que já foram tentados até agora”.

A descoberta foi relatada na revista Science.

Fonte: Scientific American

terça-feira, 7 de outubro de 2014

LED para iluminação conduz ao Prêmio Nobel

A Academia Real de Ciências da Suécia concedeu hoje o Prêmio Nobel de Física a Isamu Akasaki, Hiroshi Amano e Shuji Nakamura pela invenção de diodos de luz azul.

Alfred Nobel

© RSAS (efeito de LED simbolizando o Prêmio Nobel)

Os diodos de luz azul proporcionaram uma fonte econômica de luz branca. Além do amplo reconhecimento de seus trabalhos, eles receberão 8 milhões de coroas suecas (US$ 1,1 milhão) para dividir.

Isamu Akasaki nasceu em 1929 em Chiran no Japão. Fez doutorado na Universidade de Nagoia, onde hoje é professor. Hiroshi Amano nasceu em 1960 em Hamamatsu também no Japão, e é professor na mesma universidade. Shuji Nakamura nasceu em 1954 em Ikata, no Japão, mas tem cidadania americana. Com doutorado na Universidade de Tokushima, ele atualmente é professor na Universidade da Califórnia em Santa Bárbara, nos EUA. A imagem abaixo mostra os laureados do Prêmio Nobel de Física de 2014; da esquerda para a direita: Akasaki, de 85 anos, Amano, de 54, e Nakamura, de 60.

laureados do Prêmio Nobel de Física de 2014

© AP (laureados do Prêmio Nobel de Física de 2014)

Por muitos anos, a indústria teve à sua disposição LEDs de cor vermelha e verde. No entanto, para obter luz LED branca, era necessário ter a componente azul.

Nos anos 1990, os cientistas premiados conseguiram produzir essa luz, possibilitando o uso de LEDs para iluminação, com gasto muito menor de energia que a usada pelas lâmpadas incandescentes, com consumo pelo menos 90% menor. O consumo de materiais também é diminuída com LEDs que duram até 100.000 horas, em comparação com 1.000 horas para lâmpadas incandescentes e 10.000 horas para lâmpadas fluorescentes.

A iluminação com LEDs é muito mais eficiente que a de lâmpadas tradicionais. Considerando que quase um quarto da energia elétrica usada no mundo é consumida para iluminar ambientes, sua invenção representa uma considerável economia de recursos naturais, também porque as lâmpadas LED usam menos material e são mais duráveis.

Outra vantagem dessa tecnologia é que seu baixo consumo a torna interessante para uso em lugares onde não há acesso à rede elétrica, como regiões muito isoladas ou muito pobres.

Os laureados desafiaram verdades estabelecidas, trabalharam duro e assumiram riscos consideráveis. Construíram eles mesmos seus equipamentos, e levaram a cabo milhares de experimentos. Na maioria das vezes, eles falharam, mas não se desesperaram, foi arte de laboratório em seu nível mais alto.

Especificamente, o mérito dos pesquisadores foi insistir num determinado material para fazer a luz azul brilhar no LED. Eles elegeram o nitreto de gálio e se esforçaram para criar cristais de qualidade para seu uso em lâmpadas, apesar de muitos outros pesquisadores terem desistido por dificuldades técnicas. Sua decisão foi acertada: entre a década de 1980 e 1990, os vencedores do Nobel publicaram uma série de trabalhos que aperfeiçoaram os processos até a obtenção de um LED azul suficientemente funcional.

As lâmpadas de LED branco emitem uma luz branca brilhante, são duradouras e eficientes em termos de energia. Elas são constantemente aperfeiçoadas, ficando cada vez mais eficientes, com maior fluxo luminoso (medido em lúmen) por unidade de potência elétrica de entrada (medido em watts). Um lúmen é o fluxo luminoso dentro de um cone de 1 esferorradiano, emitido por um ponto luminoso em todas as direções com intensidade de 1 candela. O registro mais recente é pouco mais de 300 lm/W, que pode ser comparado a 16 para lâmpadas comuns e perto de 70 por lâmpadas fluorescentes.

O objetivo principal dos pesquisadores dessa área agora é aumentar a potência dos LEDs, para que menos unidades sejam necessárias para obter um grande poder de iluminação.

A lâmpada LED é uma grande promessa para o aumento da qualidade de vida de mais de 1,5 bilhões de pessoas ao redor do mundo que não têm acesso às redes de eletricidade, devido ao baixo consumo de energia que pode ser alimentado por energia solar barata local.

A invenção do LED azul possui apenas vinte anos de existência, mas já contribuiu para criar luz branca de uma maneira totalmente nova para o benefício de todos nós.

As lâmpadas incandescentes iluminou o século 20; o século 21 será iluminado por lâmpadas de LED!

Fonte: The Royal Swedish Academy of Sciences

segunda-feira, 1 de setembro de 2014

Estranhos neutrinos solares detectados pela primeira vez

Nas profundezas do Sol, pares de prótons se fundem para formar átomos mais pesados, liberando misteriosas partículas chamadas de neutrinos no processo.

detector Borexino

© Colaboração Borexino (detector Borexino)

Acredita-se que essas reações sejam o primeiro passo na cadeia responsável por 99% da energia que o Sol irradia, mas cientistas nunca haviam encontrados provas até agora. Pela primeira vez, físicos capturaram os elusivos neutrinos produzidos pelas reações básicas de fusão de prótons do Sol.
A Terra deveria estar repleta desses neutrinos, cálculos sugerem que aproximadamente 420 bilhões deles atinjam cada polegada quadrada da superfície de nosso planeta por segundo, mas eles são incrivelmente difíceis de encontrar.
Os neutrinos quase nunca interagem com partículas regulares e normalmente passam direto pelos espaços vazios entre os átomos de nossos corpos e de toda matéria convencional. Mas ocasionalmente eles colidem com um átomo, que solta um elétron, criando um rápido flash de luz visível apenas a detectores extremamente sensíveis. Foi assim que o experimento Borexino do Laboratório Nacional Gran Sasso, na Itália, os encontrou.
A detecção dos chamados “neutrinos pp”, os neutrinos criados pela fusão de dois prótons solares, era uma tarefa quase impossível. “A existência desses neutrinos não era questionada. O que queríamos saber era se algum grupo conseguiria construir um detector tão incrivelmente cristalino que permitisse a visualização desses neutrinos de baixa energia em tempo real, evento por evento”, explica Wick Haxton, físico da University of California, Berkeley, que não se envolveu no experimento. “O Borexino conseguiu fazer isso depois de uma longa campanha para isolar e compreender eventos de fundo”.  
O Borexino usa um tanque cheio de cintilador líquido, um material projetado para emitir luz quando recebe energia, contido em uma grande esfera cercada por mil toneladas de água, protegida por camadas e mais camadas de cobertura e enterrada 1,4 quilômetros abaixo do solo.
Essas defesas foram projetadas para impedir a passagem de tudo, menos neutrinos, assim excluindo todos outros tipos de radiação que pudessem imitar o sinal. “Infelizmente isso não é o bastante para neutrinos pp”, observa Andrea Pocar da University of Massachusetts Amherst que também é membro do Borexino e principal autor de um artigo relatando os resultados.

Parte da contaminação de fundo, no entanto, não pode ser bloqueada porque tem origem no próprio experimento. “O maior ruído vem do carbono 14 do cintilador”, explica Pocar.
O carbono 14 é um isótopo radioativo comum na Terra. Seu decaimento previsível permite que arqueólogos datem espécimes ancestrais. Quando decai, porém, o carbono 14 libera um elétron e emite luz muito semelhante à de neutrino pp. Os físicos tiveram que observar uma estreita faixa de energia em que podem distinguir neutrinos pp de decaimentos do carbono 14.
Mesmo assim, de vez em quando átomos de carbono 14 no cintilador decaem simultaneamente e a energia que eles liberam imita exatamente o brilho do neutrino pp. “Tivemos que compreender esses eventos com muita precisão para subtraí-los”, explica Pocar.
A equipe inventou uma nova maneira de contar os eventos, e coletou dados durante vários anos antes de ter certeza que haviam isolado um sinal verdadeiro. “Essa é uma medida muito difícil de realizar”, elogia Mark Chen da Queen’s University em Ontario, no Canadá, que não se envolveu no projeto. “O esforço que o Borexino fez para purificar o cintilador líquido em seu detector valeu a pena”.
A descoberta de neutrinos pp solares é uma confirmação que tranquiliza físicos em relação aos principais modelos teóricos que descrevem o Sol. Experimentos anteriores encontraram neutrinos solares de alta energia criados por estágios mais avançados do processo de fusão envolvendo o decaimento de átomos de boro. Mas os neutrinos pp de baixa energia foram mais difíceis de encontrar; sua detecção completa a ideia sobre a cadeia de fusão do Sol, além de acelerar os planos para a próxima geração de experimentos terrestres com neutrinos.

Durante as observações, foi medido um fluxo de neutrinos de 6,6 x 1010 por cm² por segundo. Isto significa que o Sol tem uma potência de 3,98 x 1026 W (Watts), um valor muito semelhante ao obtido pela medição da energia da radiação solar que ilumina e aquece a Terra, que é de 3,84 x 1026 W.
Uma estranha peculiaridade dessas partículas elementares é que elas existem em três sabores, chamados de elétron, múon e tau, e têm a bizarra capacidade de trocar de sabor ou oscilar. Devido às complexas particularidades nas reações de fusão de prótons, todos os neutrinos do Sol nascem como neutrinos do elétron. No momento em que atingem a Terra, porém, parte deles já se transformou em neutrinos múon e tau.
Cada sabor de neutrino tem uma massa levemente diferente, ainda que físicos não saibam exatamente quais são essas massas. Determinar as massas e como elas ficam ordenadas entre os três sabores é um dos objetivos mais importantes dos experimentos com neutrinos da atualidade. A diferença de massa entre sabores é o principal fator que afeta a oscilação dos neutrinos.
Se neutrinos estão viajando pela matéria, suas interações com ela também alteram suas taxas de oscilação. Tudo indica que as oscilações de neutrinos de  mais alta energia sofrem interferência da matéria, o que propicia maior chance de oscilação, e portanto menos deles sobreviverão como neutrinos do elétron no momento em que chegam à Terra.
O Observatório Sudbury de Neutrinos, em Ontário, e o experimento japonês Super-Kamiokande mediram esse fenômeno décadas atrás, quando detectaram os neutrinos solares de energia mais alta advindos do decaimento do boro. Agora as descobertas do Borexino confirmam o efeito: mais neutrinos de baixa energia vistos pelo Borexino permaneceram com o sabor elétron que os neutrinos de energia mais altas medidos pelos experimentos anteriores. “Isso é importante porque efeitos sobre a matéria só foram vistos no Sol até agora, mas queremos usar esse efeito na Terra em futuros ‘experimentos de linha longa com neutrinos’ para determinar completamente o padrão de massas de neutrino”, declara Haxton.
Esses experimentos, como o Long-Baseline Neutrino Experiment (LBNE) do Fermilab que deve começar em 2022, investigarão como ocorre a oscilação de neutrinos viajando pela matéria. Em vez de usar neutrinos solares, esses projetos criarão poderosos feixes de neutrinos em aceleradores de partículas e refinarão suas rotas para realizar medidas precisas.
O experimento do Fermilab gerará um fluxo de neutrinos de seu laboratório base, perto de Chicago, até a Instalação de Pesquisa Subterrânea de Sanford na Dakota do Sul. Enquanto os neutrinos atravessam cerca de 1.285 quilômetros de manto terrestre em sua jornada (a chamada “linha longa”), muitos oscilarão. Ao estudar como a matéria do manto intrage com os diferentes sabores para afetar suas taxas de oscilação, os pesquisadores esperam revelar quais sabores de neutrinos são mais leves, e quais são mais pesados.
Resolver o mistério da massa dos neutrinos, por sua vez, poderia apontar para uma teoria da física de partículas mais profunda que o Modelo Padrão atual, que não leva em conta as massas dos neutrinos. A última façanha do Borexino (medir neutrinos com precisão) sugere que os experimentos finalmente estão se tornando poderosos o suficiente para extrair esses segredos das elusivas partículas.

Um artigo divulgando os resultados foram publicados na Nature.

Fonte: Scientific American