quinta-feira, 31 de dezembro de 2015

Luz ultravioleta produz raios X

Foi descoberta uma maneira de usar a luz ultravioleta para produzir raios X.

laser infravermelho e ultravioleta

© H. Kapteyn/M. Murnane/JILA (laser infravermelho e ultravioleta)

A imagem acima mostra lasers infravermelhos gerando pulsos longos (em cima) e lasers ultravioletas (embaixo) gerando pulsos de raios X muito curtos.

Esta técnica proporciona a melhoria no desempenho dos equipamentos de imageamento médico, além de permitir avanços nos estudos fundamentais de materiais.

Atualmente, os pulsos de laser mais curtos que se consegue gerar são produzidos por um processo denominado geração de harmônicos (HHG: high harmonic generation), que usa um pulso gerador longo para arrancar elétrons de átomos gasosos; quando estes elétrons retornam, é produzida luz com comprimentos de onda mais curtos, ou seja, um pulso menor. A chamada correspondência de fase, quando estes pulsos são alinhados com os raios X emitidos, é útil para várias aplicações, como o imageamento por difração.

No entanto, a correspondência de fase funciona melhor com comprimentos de onda mais longos, gerados por lasers na faixa do infravermelho médio, por exemplo, e apenas com níveis específicos de átomos ionizados.

Dimitar Popmintchev e seus colegas superaram essas limitações usando um sistema de geração de harmônicos que usa lasers ultravioleta em comprimentos de onda capazes de estimular feixes luminosos na região mais baixa do espectro de raios X.

O processo de alta geração harmônica em gases foi descoberto usando lasers ultravioleta quase 28 anos atrás. Mas, porque os cientistas daquela época não entendiam plenamente como fazer este processo eficiente, a atenção voltou-se para usar lasers de longo comprimento de onda para HHG. Na verdade, há muitos anos, a maioria dos cientistas acreditava que a produção de harmônicos de raios X moles com lasers ultravioleta seria impossível.

Em um efeito surpreendente, a refração dos raios ultravioleta, tanto nos átomos neutros como nos íons, permitiu obter um acoplamento de fase eficaz, o que por sua vez permite trabalhar em cenários mais complexos, incluindo plasmas com diferentes níveis de ionização, e não mais os níveis bem definidos exigidos pelas técnicas anteriores.

Esta nova técnica pode produzir harmônicos com fótons de até 280 eV (elétron-volts de energia); as técnicas anteriores, usando lasers infravermelhos, só chegavam a essa energia sob pressões muito baixas.

O grupo de cientistas está usando a luz ultravioeta gerado por laser harmônicos para investigar nanomateriais através de imageamento por difração. Em breve, os pesquisadores esperam produzir luz de comprimento de onda mais curto, que lhes permitirão uma resolução espacial mais elevada para analisar materiais biológicos como o DNA, RNA, proteínas e vírus.

Fonte: Science

quarta-feira, 30 de dezembro de 2015

A longevidade dos elétrons

O tempo de vida mínimo dos elétrons, de acordo com as medições recentes é de 6,6 × 1028anos (66.000 yotta-anos), o que corresponde a cerca de cinco quintilhões de vezes a atual idade do Universo.

detector Borexino

© INFN (detector Borexino)

Um elétron é a partícula subatômica mais leve, com massa de cerca de 9,11 x 10-31 kg, que transporta uma carga elétrica negativa. Não há componentes conhecidos nele, e é por isso que os elétrons são considerados uma partícula elementar.

Uma equipe de pesquisadores de diversas nacionalidades que trabalham no experimento Borexino, um detector de neutrinos que opera no Laboratori Nazionali del Gran Sasso, na Itália, buscava sinais de elétrons decaindo em partículas mais leves, mas, como esperado, não foi encontrado nada. Isso é bom, porque confirma o que físicos vem suspeitando há muito tempo. Se eles encontrassem evidências de que elétrons decaem em fótons e neutrinos, estas últimas são partículas elementares com ainda menos massa, isto violaria a conservação da carga elétrica. Tal descoberta sugeria uma nova física muito além do modelo padrão.

O decaimento departículas é muito natural na física; partículas pesadas tendem a decair em mais leves. Um nêutron sozinho, por exemplo, vai decair em um próton, um elétron e um anti-neutrino em alguns minutos. Porém, a carga elétrica total não altera. As únicas partículas que são mais leves do que elétrons são eletricamente neutras: fótons (desprovido de massa), neutrinos, glúons e grávitons. Se existisse outra partícula leve carregada, já teria sido detectada. Isto sugere que não há possibilidade do elétron decair.

Os detalhes do trabalho foram publicados no jornal científico Physical Review Letters.

Fonte: Physics World

quarta-feira, 14 de outubro de 2015

Partícula feita apenas de força nuclear forte

Há décadas, os cientistas procuram pelas chamadas “glueballs”. Parece que, enfim, acharam.

nucleons e glueball

© TU WIEN (nucleons e glueball)

A imagem acima mostra, à esquerda, nucleons que consistem de quarks (partículas de matéria) e glúons (partículas de força), e à direita, uma glueball que é constituída apenas de glúons.

Uma glueball é uma partícla exótica feita inteiramente de glúons, as partículas “pegajosas” que mantém juntas as partículas nucleares. As glueballs são instáveis e só podem ser detectadas indiretamente, por meio da análise de seu decaimento. No entanto, esse processo de decaimento ainda não é totalmente compreendido.

O Professor Anton Rebhan e Frederic Brünner da Universidade Técnica de Viena (TU Wien), na Áustria, empregaram uma nova abordagem teórica para calcular o decaimento de uma glueball. Seus resultados coincidem extremamente bem com dados obtidos em experiências em aceleradores de partículas. Há fortes indícios de que uma ressonância, chamada “f0(1710)”, encontrada em várias experiências, seja de fato a tão procurada glueball. Em poucos meses devem sair novos resultados experimentais.

Prótons e nêutrons consistem de partículas ainda mais elementares, chamadas quarks. Esses quarks são ligados pela Força Nuclear Forte. Na física de partículas, toda força é mediada por um tipo especial de partícula e a partícula da força nuclear forte é o glúon.

Os glúons podem ser encarados como versões mais complexas do fóton. Os fótons sem massa são os responsáveis pelas interações eletromagnéticas, enquanto que oito tipos diferentes de glúons desempenham uma função similar para a força nuclear forte. No entanto, existe uma importante diferença: os glúons interagem com eles mesmos, enquanto os fótons, não.  Por isso não existem fótons no estado ligado, mas uma partícula composta somente de glúons é, de fato, possível.

Em 1972, pouco depois que a teoria de quarks e glúons foi formulada, os físicos Murray Gell-Mann e Harald Fritsch especularam sobre possíveis partículas compostas somente de glúons (originalmente chamadas de “gluonium”; atualmente chamadas de “glueball”). Várias partículas, encontradas em experiências em aceleradores de partículas, foram consideradas como candidatas viáveis para glueballs, porém nunca houve um consenso científico sobre se esses sinais seriam ou não uma dessas misteriosas partículas feitas inteiramente de partículas de força. Os sinais detectados poderiam ser, ao invés de uma glueball, uma combinação de quarks e antiquarks. As glueballs são efêmeras demais para serem diretamente detectadas. Se elas existirem, teriam que ser identificadas pelo estudo de seu decaimento.

“Infelizmente, o padrão de decaimento das glueballs não pode ser calculado com rigor”, lamenta Anton Rebhan. Cálculos com modelos simplificados mostraram que há dois candidatos realísticos para glueballs: os mésons chamados f0(1500) e f0(1710). Por muito tempo, o primeiro foi considerado o candidato mais promissor. O segundo tem uma massa maior, o que concorda mais com as simulações computadorizadas, porém, quando decai, produz muitos quarks pesados, denominados quarks strange. Para muitos cientistas de partículas, isto parecia implausível, porque as interações dos glúons não fazem, usualmente, distinção entre quarks mais leves e mais pesados.

Anton Rebhan e seu estudante de PhD, Frederic Brünner, deram um grande passo à frente na solução desse enigma, usando uma abordagem diferente. Existem conexões fundamentais entre as teorias quânticas que descrevem o comportamento das partículas em nosso mundo tridimensional e certos tipos de teorias gravitacionais em espaços com mais dimensões. Isso significa que certas questões de física quântica podem ser respondidas, se usarmos ferramentas da física da gravidade.

“Nossos cálculos mostram que é efetivamente possível que as glueballs decaiam preferencialmente em quarks strange”, afirma Anton Rebhan. Surpreendentemente, o padrão de decaimento calculado, em duas partículas mais leves, é extremamente concordante com o padrão de decimento medido para o f0(1710). Além disto, outros decimentos em mais de duas partículas são possíveis. Esses padrões de decaimento também foram calculados.

Até agora, esses decaimentos alternativos para as glueballs não foram medidos, porém, dentro dos próximos meses, novos dados serão obtidos em duas experências do LHCb e TOTEM no Large Hadron Collider (LHC) do CERN e um acelerador em Beijing (BESIII). “Esses resultados serão cruciais para nossa teoria”, diz Anton Rebhan. “Para esses processos multi-partículas, nossa teoria prevê taxas de decaimento muito diferentes dos outros modelos mais simples. Se as medições concordarem com nossos cálculos, isto será um notável sucesso para nossa abordagem”. Seria um indício definitivo de que o méson f0(1710) é mesmo uma glueball. E, mais do que isso, será demonstrado que uma gravidade em número superior de dimensões pode ser utilizada para responder questões da física de partículas, de uma forma que significaria mais um enorme sucesso para a Teoria da Relatividade Geral de Einstein que completa 100 anos no próximo mês.

Um artigo foi publicado na revista Physical Review Letters.

Fonte: Technische Universität Wien

terça-feira, 6 de outubro de 2015

A metamorfose do neutrino

O Prêmio Nobel de Física de 2015 foi concedido a Arthur B. McDonald, 72, da Queen's University, do Canadá, e Takaaki Kajida, 56, da Universidade de Tóquio, no Japão pela descoberta de que os neutrinos, um tipo de partícula elementar, mudam de classe e possuem massa.

evento da detecção de neutrinos

© U. de Tóquio/Super-Kamiokande (evento da detecção de neutrinos)

Os dois pesquisadores dividem os 8 milhões de coroas suecas (US$ 963 mil) do prêmio. Ambos trabalharam em experimentos importantes para detectar e estudar essas partículas, muito difícieis de capturar por não possuírem carga elétrica e terem massa extremamente leve.

O estudo de neutrinos que se deslocam no espaço e atravessam a Terra como fantasmas era um quebra-cabeça para a física antes dos trabalhos de McDonald e Kajida. Físicos acreditavam que essas partículas, prduzidas no Sol e por raios cósmicos que incidem sobre a atmosfera terrestre, estavam sumindo durante a trajetória, pois boa parte delas não estava sendo detectada.

Neutrinos são as partículas elementares conhecidas mais numerosas do Universo depois dos fótons, as partículas de luz, e chegam à Terra vindas de todos os lados. Nossos corpos são atravessados por trilhões deles a cada segundo.

Cientistas haviam calculado quantas das partículas solares deveriam chegar à Terra, mas os primeiros experimentos de detecção só acharam um terço dos neutrinos esperados, e os físicos não sabiam por quê. Neutrinos produzidos na atmosfera também pareciam estar desaparecendo. Isso desafiava princípios básicos da física, porque partículas elementares não somem sem deixar pista.

Elaborando experimentos sofisticados com detectores ultrassensíveis em cavernas profundas para evitar interferências externas, Kajida e McDonald levaram à detecção das partículas desaparecidas. Os neutrinos estavam, na verdade, mudando de um tipo para outro, o que dificultava a investigação. O problema é que os neutrinos produzidos no Sol, por exemplo, são de uma classe específica, associada aos elétrons, as partículas de carga negativa nos átomos.

Os experimentos dos dois físicos ganhadores do Nobel de 2015 mostraram que os neutrinos do elétron também poderiam se transformar em "neutrinos do tau" ou "neutrinos do múon", associados a outras partículas elementares. Uma implicação disso era que essas partículas possuem massa, algo que não era esperado.

O experimento no qual Kajida trabalhou foi o Super-Kamiokande, um conjunto de dectores de 40 metros de altura construído numa mina de zinco a 1 km de profundidade. Esse projeto, perto de Tóquio, estudava neutrinos produzidos por raios cósmicos na atmosfera terrestre.

Takaaki Kajita & Arthur B. McDonald

© K. MacFarlane (Takaaki Kajita & Arthur B. McDonald)

McDonald trabalhou no Observatório de Neutrinos de Sudbury, que estudava neutrinos produzidos pelo Sol. O projeto consistia em detectores instalados dentro de uma caverna aberta por uma mina de níquel no estado canadense de Ontario, a 2 km de profundidade.

A confirmação de que neutrinos têm massa contrariava aquilo que era sugerido pelo Modelo Padrão, a teoria vigente da física de partículas, sugerindo que ele não é uma descrição completa da física fundamental. Antes disso, acreditava-se que os neutrinos fossem entidades sem massa, como os fótons.

Esta descoberta trata de uma física que está além do Modelo Padrão.

Agora, os experimentos continuam em intensa atividade em todo o mundo, a fim de capturar neutrinos e examinar suas propriedades. Novas descobertas sobre os seus segredos mais profundos são esperados para mudar nossa compreensão atual da história, estrutura e destino futuro do Universo.

Fonte: The Royal Swedish Academy of Sciences

sábado, 12 de setembro de 2015

Einstein foi o primeiro a deduzir E = mc²?

Nenhuma equação é mais famosa que E = mc2, e poucas são mais simples.

equação da energia

© Shutterstock (equação da energia)

De fato, a fama da equação imortal se deve principalmente à sua absoluta simplicidade: a energia E de um sistema é igual à sua massa m multiplicada por c2, a velocidade da luz ao quadrado. A mensagem da equação é que a massa de um sistema é uma medida de seu conteúdo de energia. No entanto, E = mc2 traduz alguma coisa mais fundamental. Se pensarmos em c, a velocidade da luz, como um ano-luz por ano, o fator de conversão c2 torna-se igual a 1. O que faz com que a equação se reduza a E = m. Energia e massa são iguais.
De acordo com o folclore científico, Albert Einstein formulou sua equação em 1905 e de uma estocada só, explicou como a energia é liberada em estrelas e em explosões nucleares. Essa é uma simplificação exagerada. Einstein não foi a primeira pessoa a considerar a equivalência entre massa e energia, na verdade, nem foi ele quem a provou.
Qualquer pessoa que passou por um curso básico de eletricidade e magnetismo sabe que corpos carregados conduzem campos elétricos, e que cargas em movimento também criam campos magnéticos. Portanto, partículas eletrizadas em movimento carregam campos eletromagnéticos.
No fim do século 19, filósofos da natureza acreditavam que o eletromagnetismo era mais fundamental que as leis do movimento de Isaac Newton, e que o próprio campo eletromagnético forneceria a origem da massa. Em 1881 J. J. Thomson, que mais tarde viria a descobrir o elétron, tentou demonstrar pela primeira vez, que isso seria possível calculando explicitamente o campo magnético gerado por uma carga esférica em movimento e mostrando que o campo induzia uma massa no interior da própria esfera.
O efeito é totalmente análogo ao que ocorre quando deixamos cair uma bola de tênis no solo. A força da gravidade puxa a bola para baixo. Forças de flutuação e de arraste do ar impedem a queda da bola. Mas isso não é tudo. Com ou sem resistência, para a bola cair ela precisa empurrar para fora de seu caminho o ar que está à sua frente e esse ar tem massa.
A massa efetiva da bola em queda é, consequentemente, maior que sua massa em repouso. Para Thomson o campo da esfera agiria como o ar na frente da bola, e nesse caso a massa efetiva da esfera seria toda a massa induzida pelo campo magnético.
O resultado ligeiramente complicado de Thomson dependia da carga, do raio e da permeabilidade magnética do corpo, mas em 1889, o físico inglês Oliver Heaviside simplificou os cálculos de Thomson e mostrou que a massa efetiva deveria ser m = (43) E/c2, onde E é a energia do campo elétrico da esfera. Os físicos alemães Wilhelm Wien, famoso por suas pesquisas sobre a radiação do corpo negro, e Max Abraham, obtiveram o mesmo resultado: que se tornou conhecido como “massa eletromagnética” do elétron clássico (o que nada mais era que uma minúscula esfera carregada). Apesar de que, para haver massa eletromagnética era preciso que o corpo estivesse carregado, e em movimento, o que claramente não se aplicava a todos os corpos, essa foi a primeira tentativa séria de relacionar massa e energia.
Tampouco foi a última. Quando, em 1884, o inglês John Henry Poynting enunciou o famoso teorema sobre conservação da energia do campo eletromagnético, outros cientistas tentaram rapidamente estender as leis da conservação para massa e energia.
De fato, em 1900, o sempre presente Henri Poincaré declarou que se supusermos que o momentum de quaisquer partículas presentes num campo eletromagnético mais o momentum do próprio campo são ambos conservados, então o teorema de Poynting previa que o campo deve agir como um “fluido fictício” com massa tal que a energia é E = mc2. Poincaré, no entanto, não conseguiu relacionar E com a massa de qualquer corpo real.
O escopo das investigações foi ampliado novamente em 1904 quando Fritz Hasenöhrl criou um experimento mental envolvendo energia térmica numa cavidade em movimento. Relegado ao esquecimento nos dias atuais, exceto pelos detratores de Einstein, Hasenöhrl era na época mais famoso que o analista desconhecido do registro de patentes.
Hasenöhrl escreveu uma excelente trilogia de artigos, “Sobre a teoria da radiação de corpos em movimento”. Os dois últimos foram publicados no periódic oAnnalen der Physik, em 1904, e no início de 1905. No primeiro ele imaginou uma cavidade cilíndrica perfeitamente refletora na qual as duas calotas das extremidades, que serviam de aquecedores, eram ligadas, enchendo a cavidade com calor comum, ou seja, com radiação de corpo negro. A terceira lei de Newton (“toda a ação gera uma reação igual e oposta”) afirma em linguagem moderna que qualquer fóton emitido por um aquecedor deve exercer uma força externa contra cada um deles (podemos supor que essas forças externas sejam o que mantém as calotas presas ao cilindro). Mas como fótons idênticos são emitidos de cada extremidade, as forças têm a mesma intensidade. Pelo menos, quando vistas por observador localizado no interior da cavidade.
Hasenöhrl, então perguntou, a seguir, como o sistema seria visto ao se deslocar com velocidade constante em relação a um observador situado no laboratório.
A física básica afirma que a luz emitida por uma fonte que se aproxima de um observador se desloca para o lado azul do espectro visível, e se a fonte se afasta do observador a luz se desloca para a extremidade vermelha do espectro. É o famoso desvio Doppler. Fótons emitidos por uma das calotas das extremidades sofrerão então desvio Doppler para o azul para o observador localizado no referencial do laboratório e os da outra extremidade serão desviados para o vermelho. Fótons azuis transportam mais momentum que vermelhos, por isso, para manter a cavidade se deslocando a uma velocidade constante as duas forças externas agora precisam ser diferentes. Uma aplicação simples do “teorema do trabalho-energia”, que relaciona a diferença de trabalho produzida pelas forças com a energia cinética da cavidade, permitiu que Hasenöhrl concluísse que a radiação do corpo negro tem massa m = (83) E / c2. Em seu segundo artigo, Hasenöhrl considerou uma cavidade cheia de radiação em movimento lentamente acelerado e obteve a mesma resposta. Depois de uma comunicação de Abraham, no entanto, ele descobriu um erro algébrico e em seu terceiro artigo ele corrigiu o resultado para m = (43) E / c2.
Ao considerar uma massa inerente ao calor, Hasenöhrl estendeu suas especulações anteriores além do campo eletromagnético de corpos eletrizados, até chegar a um experimento mental mais amplo, muito semelhante ao do próprio Einstein do ano seguinte que deu origem a E = mc2. Obviamente, Hasenöhrl estava escrevendo a pré-relatividade, e alguém poderia imaginar que um resultado incorreto seria inevitável. Porém, a questão não era assim tão simples. O astrônomo Stephem Boughn analisou detalhadamente a trilogia de Hasenöhrl e a alegação comum, “ele se esqueceu de levar em conta as forças que a própria cavidade exerce para manter as calotas das extremidades no lugar”, não é o problema. O maior erro no primeiro experimento mental de Hasenöhrl foi ele não ter percebido que se as calotas das extremidades emitiam calor, elas precisavam perder massa, um lapso irônico, visto que essa é exatamente a equivalência entre massa e energia que ele tentava obter. Apesar disso, Hasenöhrl estava bastante correto, a ponto de Max Planck chegar a dizer em 1909, “que a radiação do corpo negro possui inércia, foi mostrado pela primeira vez por F. Hasenöhrl”. A radiação do corpo negro tem massa.
O mais surpreendente é que no segundo experimento, no qual a cavidade já está cheia de radiação e as calotas não estão irradiando, a resposta de Hasenöhrl não está obviamente errada, mesmo de acordo com a relatividade. O famoso artigo de Einstein, E = mc2, de 1905, “A inércia de um corpo depende da energia nele contida?” considera somente uma partícula pontual emitindo uma explosão de radiação e como um observador em movimento vê o sistema? Ao considerar uma cavidade de comprimento finito, Hasenöhrl estava sendo muito mais audacioso, ou negligente. Corpos extensos têm produzido vários problemas para a relatividade especial, como o fato de a massa do elétron clássico também sair da equação m = (43) E / c2.

Logo, usando matemática relativisticamente correta obtém-se um resultado que aparentemente contradiz a reposta que qualquer um espera e quer. Argumentos sobre como resolver adequadamente a questão persistem até hoje.
Igualmente surpreendente foi o fato de que embora Einstein tenha sido o primeiro a propor a equação correta, E = mc2, ele, na verdade, não a provou, pelo menos, de acordo com sua própria relatividade especial. Einstein começou utilizando relações relativísticas (efeito Doppler relativístico) que tinha deduzido alguns meses antes, mas finalmente chegou bem perto dos bits relativísticos, deixando uma resposta que se pode tirar da física puramente clássica e que pode ou não permanecer verdadeira em velocidades mais altas onde a relatividade começa a ter efeito. Além disso, embora ele tenha afirmado que sua conclusão se aplica a todos os corpos e a todas as formas de energia, Einstein certamente não fez nenhuma tentativa para prová-la. Ele sabia dos pontos fracos de suas deduções e escreveu mais alguns artigos ao longo dos 40 anos seguintes tentando consertar as coisas, mas provavelmente jamais conseguiu. Obviamente, desde então inúmeros experimentos nos convenceram de como os resultados de Einstein estavam corretos.
É natural especular se Einstein sabia do trabalho de Hasenöhrl. É difícil acreditar que não, pois a maior parte da trilogia imbatível de Hasenöhrl apareceu nas mais renomadas revistas científicas na época. Certamente, em algum momento ele conheceu Hasenöhrl: uma fotografia famosa da primeira Conferência Solvay de 1911 mostra os dois juntos em torno da mesa com outros ilustres participantes.
Assim, embora Einstein tenha atingido um definitivo avanço conceitual ao relacionar a massa de um corpo com a energia total nele contida, quer esteja ou não em movimento, quer tenha ou não um campo eletromagnético associado, é preciso atribuir também os devidos créditos a Hasenöhrl, por ter descoberto, sem ambiguidade, que o próprio calor possui uma massa equivalente, e aos físicos que o precederam por terem fornecido a estrutura que lhe serviu de apoio. A equação E = mc2 é o final surpreendente de uma longa e intrincada história científica.

Fonte: Scientific American

quarta-feira, 9 de setembro de 2015

Um panorama dos avanços da física

Explicar para um público amplo como algumas das maiores descobertas da física foram feitas não é tarefa simples.

História da Física

© CBPF/Cássio Leite Vieira (História da física)

Para visualizar o livro click na imagem acima.

Em História da física: artigos, ensaios e resenhas, editado e publicado pelo Centro Brasileiro de Pesquisas Físicas (CBPF), o jornalista Cássio Leite Vieira faz justamente isso. A obra traz uma coletânea de reportagens escritas pelo autor ao longo das últimas décadas. São textos que fornecem um panorama dos grandes avanços científicos da física nos séculos XIX e XX. Dividido em três partes, o livro aborda primeiro a física internacional, depois a física no Brasil e, por último, apresenta resenhas de livros sobre grandes cientistas da área. Os textos são escritos em linguagem simples e são acessíveis mesmo a quem não possui conhecimentos de física.

Além de contar como a física evoluiu e a história das grandes descobertas, Vieira fala sobre a vida dos cientistas por trás delas e fornece o contexto histórico de cada avanço. Assim, o leitor pode compreender melhor não apenas como uma nova teoria pode mudar a forma de se enxergar a física, mas também como as ideologias de uma época influenciaram a mente de seus criadores. Algumas das teorias de John Bell sobre mecânica quântica, consideradas filosóficas, ganharam força com o movimento hippie dos Estados Unidos do fim da década de 1960. A frase do físico norte-americano John Clauser ilustra a relação entre história e ciência: ‘‘A guerra do Vietnã dominava os pensamentos políticos da minha geração. Sendo um jovem físico naquele período de pensamento revolucionário, eu naturalmente queria chacoalhar o mundo”.

Esses bastidores da ciência continuam com histórias sobre relações e debates entre pesquisadores. Exemplo disso são as discussões entre o físico alemão Albert Einstein e o dinamarquês Niels Bohr, classificadas por alguns como “o maior debate filosófico do século passado”. Einstein buscou provar que a mecânica quântica, teoria defendida por Bohr para explicar fenômenos em escala microscópica, estava equivocada por indicar apenas as probabilidades de um fenômeno ocorrer, e não a “certeza”. Einstein também criticava o fato de que, segundo a teoria, depois de duas partículas interagirem, surgiria uma “comunicação instantânea” entre elas. Em algumas situações, essa comunicação teria que ocorrer em uma velocidade superior à da luz, o que ia contra as ideias de Einstein. Entretanto, esse fenômeno se demonstrou real e ficou conhecido como emaranhamento.

Outro atrativo do livro de Vieira é discutir as implicações e as aplicações práticas de descobertas da física teórica. O emaranhamento, por exemplo, pode ser utilizado no futuro para criptografar dados, aumentando a segurança e a privacidade de informações. Mesmo a descoberta do bóson de Higgs, que o autor reconhece como não tendo nenhum impacto direto em nossas vidas, teve consequências indiretas, a tecnologia necessária para fazer a sua descoberta levou à criação do sistema World Wide Web, uma das linguagens usadas na internet.

A obra traz também a história dos principais nomes da física brasileira. Desde a geração de cientistas que surgiu em nosso país na primeira metade do século XIX, como Mario Schenberg, Joaquim Costa Ribeiro, Marcelo Damy de Souza Santos e Sonja Ashauer, até a geração atual, incluindo o matemático Artur Ávila, laureado em 2014 com a Medalha Fields, o “Nobel” da matemática.

Entre diversas histórias, o autor narra como Cesar Lattes, talvez o mais conhecido dos físicos brasileiros, esteve envolvido na descoberta e na primeira produção artificial de partículas subatômicas chamadas mésons-pi, responsáveis por mediar a força que mantém prótons e nêutrons unidos no núcleo de um átomo, e como seu papel foi fundamental para o desenvolvimento da física experimental brasileira. Demais nomes, como o de José Leite Lopes e Jayme Tiomno, também são lembrados e discutidos com maior aprofundamento por Vieira.

Além disso, histórias menos conhecidas da física brasileira são contadas. Por exemplo, a de como uma comunidade de físicos japoneses, no Brasil, ajudou o desenvolvimento da física de partículas no Japão após a Segunda Guerra Mundial.

O livro História da física: artigos, ensaios e resenhas está disponível gratuitamente e pode ser baixado pela internet.

Fonte: CBPF

segunda-feira, 31 de agosto de 2015

A radiação terahertz

Apesar de ainda pouco explorada, a radiação terahertz já fornece mostra de sua potencialidade em análises de materiais e obtenções de imagens.

quadro Marinha

© Virgilio Guidi (quadro Marinha)

Nada substitui o olho de um especialista para avaliar as particularidades de um quadro. Mas o emprego em importantes museus e instituições culturais do país de uma série de análises físicas e químicas tornou-se uma ferramenta adicional para entender o estilo e o processo criativo de certos pintores, dar parâmetros ao trabalho de conservação e restauração e trazer à tona facetas ocultas de algumas pinturas. Nesse sentido, a história do quadro Marinha, um óleo sobre madeira produzido provavelmente no início da década de 1940 pelo italiano Virgilio Guidi (1891-1984), é bastante ilustrativa. No catálogo do Museu de Arte Contemporânea da Universidade de São Paulo (MAC-USP), onde se encontra guardada, essa tela abriga, oficialmente, apenas uma pintura: uma vista do Grande Canal de Veneza, com destaque para a Igreja de San Giorgio Maggiore. No entanto, basta virar o quadro para ver, a olho nu, em seu verso o retrato de uma mulher. Imagens no infravermelho desse lado B da tela revelaram uma terceira pintura escondida sob as tintas que deram forma à figura feminina: outra cena marítima da cidade italiana.

Os raios X, raios gama, raios ultravioleta, raios infravermelhos e micro-ondas representam diferentes formas de radiação eletromagnética. A radiação infravermelha se manifesta sob a forma de calor.

No espectro eletromagnético, entre a faixa das micro-ondas e do infravermelho existe uma zona pouco explorada científica e tecnologicamente, a radiação terahertz gerada pelos raios T.

O nome vem da faixa de frequências dessa radiação, entre 0,3 e 3 THz (terahertz ou trilhões de hertz). Em termos de comprimento de onda, os raios T vão de 1.000 a 100 micrômetros.

Depois de muitas e infrutíferas tentativas de aproveitamento dos raios T, parece que agora há indícios de que teremos finalmente a exploração da última fronteira de pesquisa em eletrônica de alta frequência.

Há quase 90 anos, mais precisamente em 1923, E. F. Nichols e J. D. Tear publicaram um artigo com o sugestivo título “Unindo os espectros do infravermelho e das ondas elétricas”.

Desde então, físicos e engenheiros têm preconizado uma “nova era” para essa fronteira entre o infravermelho e a micro-onda, para logo depois se depararem com resultados pífios.

Os desenvolvimentos científicos e tecnológicos nos dois lados da fronteira têm sido notáveis, tais como os artefatos modernos: forno de micro-ondas, telefones celulares, telefones sem fio e GPS.

No lado do infravermelho, não é menos notável o desenvolvimento tecnológico, muitas vezes impulsionado por interesses militares. Entre as inúmeras aplicações civis, podemos destacar aquelas relacionadas a pesquisas em astronomia, em química e na análise de objetos de arte, sobretudo pinturas.

Enquanto a micro-onda, com frequência na faixa do gigahertz, é capaz tão somente de produzir rotações nas moléculas, a parte superior do infravermelho, com frequência maior que 10 terahertz, é capaz de produzir vibrações, resultantes de interações intermoleculares.

Já a radiação terahertz faz as duas coisas simultaneamente. A análise com raios T permite, ao mesmo tempo, a análise de materiais quanto à sua estrutura molecular, assim como a análise com micro-onda, e quanto à sua composição química, do mesmo modo que a análise com infravermelho.

Esse comportamento extremamente interessante é conhecido desde os anos 1920, mas foi necessário esperar por uma ideia bastante criativa para que feixes de raios T com alta luminosidade e grande faixa de frequências pudessem ser produzidos.

Uma ideia inovadora, originada nos laboratórios Bell, no final dos anos 1980, utilizou um laser de femtosegundos (femtosegundo é um quadrilionésimo de segundo). Quando um pulso emitido pelo laser atinge uma antena fotocondutiva, material que emite pulsos elétricos quando iluminada, também inventado pelos pesquisadores da Bell, o resultado é a emissão de pulsos com frequências entre 300 gigahertz e 10 terahertz.

Tão interessante quanto isso é o fato de que pequenas modificações técnicas na estrutura do circuito transformam uma antena emissora em receptora, dois elementos importantes para o funcionamento de um equipamento de raios T.

Seu alto poder de penetração em materiais desidratados, não-metálicos, plásticos, papéis e cartolinas e sua impenetrabilidade em materiais metálicos e líquidos polares como a água fazem da radiação T uma excelente ferramenta para obtenção de imagens, uma das aplicações mais extasiantes da atualidade.

Quando o feixe do laser atinge a antena emissora constituída de material fotocondutor, produz pulsos de raios T, os quais são modificados, em sua forma e frequência, em decorrência da interação com o material da amostra. Um sistema eletrônico convencional transforma os sinais elétricos produzidos pela antena em imagens.

Um cálculo simples mostra a eficiência desse sistema de aquisição de imagem com raios T. Antes do uso do laser de femtosegundo e das antenas fotocondutivas, seriam necessários 15 dias para a obtenção de uma imagem de 100 pixel x 100 pixel com raios T. Com o sistema desenvolvido pelo pessoal da Bell é possível analisar 100 pixels por segundo, de modo que a imagem de 100x100 é obtida em pouco mais de 1 minuto.

Muitos dos resultados de aplicações analíticas da radiação T são similares àqueles obtidos com o infravermelho. Já nas aplicações com imagens, além das duas formas de radiações eletromagnéticas, os raios X aliam-se na concorrência.

Os pesquisadores da Universidade de Tecnologia de Delft, na Holanda, mostraram como os raios T podem ser utilizados, de modo não destrutivo, para determinar espessuras de camadas de tinta abaixo de uma pintura, algo impossível com o uso de raios X ou infravermelho.

Ao contrário dos raios X, os raios T não ionizam o material analisado e, ao contrário do infravermelho, não o aquece por causa da baixíssima intensidade necessária para a realização das análises.

Apesar de todas as vantagens apontadas até aqui, ainda há uma séria limitação a ser superada nos atuais equipamentos: a baixa resolução espacial. A resolução espacial dos equipamentos atuais está na faixa do milímetro, ou seja, objetos na escala micrométrica não são bem identificados.

Aumentar a resolução espacial dos equipamentos de raios T é, portanto, um efervescente desafio de pesquisa, que poderá fazer com que a radiação terahertz seja digna dos sonhos dos pesquisadores da área.

Recentemente, Godfrey Gumbs e seus colegas da Universidade Cidade de Nova Iorque idealizaram um dispositivo que permite converter uma corrente contínua, como a armazenada em baterias, em uma fonte ajustável de radiação terahertz.

O dispositivo é baseado nos plásmons de superfície, ondas de elétrons que se formam na superfície dos metais. Foi idealizado um semicondutor híbrido: uma camada mais grossa de um material eletricamente condutor envolvida por duas camadas muito finas, que podem ser de grafeno, siliceno, ou mesmo de um gás.

Quando a corrente contínua passa através desse sanduíche, ela cria uma ressonância plasmônica com um comprimento de onda muito específico, que induz a emissão da radiação terahertz, que pode então ser "coletada" por uma antena em forma de grade.

Ajustando os vários parâmetros, como a densidade do semicondutor híbrido ou da corrente contínua aplicada, é possível ajustar o comprimento de onda, ou seja, a frequência da radiação terahertz produzida.

"Nossa abordagem baseada em semicondutores híbridos pode ser generalizada para incluir outros materiais bidimensionais emergentes, tais como o nitreto de boro hexagonal, a molibdenita e o disseleneto de tungstênio," disse o professor Andrii Iurov, coordenador da equipe.

Um artigo intitulado “Tunable surface plasmon instability leading to emission of radiation”, que descreve a converção de uma corrente contínua em uma fonte ajustável de radiação terahertz, foi publicado no Journal of Applied Physics.

Fonte: Ciência Hoje e Pesquisa FAPESP

quarta-feira, 26 de agosto de 2015

A natureza dos neutrinos de alta energia

A Colaboração IceCube anunciou uma nova observação de neutrinos de alta energia originários de fora do nosso Sistema Solar.

eventos de neutrino mais energéticos

© IceCube (eventos de neutrino mais energéticos e o IceCube Lab)

Este estudo, que procurou neutrinos vindos do Hemisfério Norte, confirma a sua origem cósmica bem como a presença de neutrinos extragaláticos e a intensidade da taxa de neutrinos. A primeira evidência de neutrinos astrofísicos foi anunciada pela colaboração em novembro de 2013.

"A procura por neutrinos do múon que chegam ao detector, passando pelo interior da Terra, é o modo como o IceCube faz astronomia de neutrinos e, com este estudo, prova-o," afirma Francis Halzen, pesquisador principal do IceCube e professor de física da Universidade de Wisconsin-Madison. "Não é como o CMS (Compact Muon Solenoid) ou o ATLAS (A Toroidal LHC ApparatuS), ambos do LHC (Large Hadron Collider), mas é tão perto de uma confirmação independente quanto possível para um único instrumento."

Os neutrinos são partículas subatômicas que viajam por todo o Universo quase sem serem influenciados pela matéria, apontando diretamente para as fontes de energia onde foram criados. E para os neutrinos mais energéticos, essas fontes deverão ser os ambientes mais extremos do Universo: poderosos geradores cósmicos, como buracos negros ou a explosão de estrelas gigantescas, objetos capazes de acelerar os raios cósmicos para energias mais de um milhão de vezes superiores àquelas alcançadas pelos aceleradores feitos pelo Homem, como o LHC no CERN.

"Os neutrinos cósmicos são a chave para partes ainda inexploradas do nosso Universo e poderão finalmente revelar as origens dos raios cósmicos mais energéticos," afirma Olga Botner, porta-voz da colaboração e da Universidade de Uppsala. "A descoberta de neutrinos astrofísicos aponta para o início de uma nova era na astronomia."

Os neutrinos nunca são observados diretamente, mas o IceCube é capaz de ver os subprodutos de uma interação entre um neutrino e o gelo da Antártida. Este detector com um quilômetro cúbico regista cem mil neutrinos por ano, a maioria produzidos pela interação dos raios cósmicos com a atmosfera da Terra. Bilhões de múons atmosféricos criados nas mesmas interações também deixam vestígios no IceCube. De todos estes, os pesquisadores procuram apenas algumas dúzias de neutrinos astrofísicos, que vão ampliar a nossa compreensão atual do Universo.

A pesquisa apresentada há poucos dias pela Colaboração IceCube usa uma velha estratégia para um telescópio de neutrinos: observa o Universo através da Terra, usando o nosso planeta para filtrar o grande fundo de múons atmosféricos. Entre maio de 2010 e maio de 2012, foram encontrados nos dados mais de 35.000 neutrinos. À energia mais alta, acima dos 100 TeV (teraelétrons-volt ou trilhões de elétrons-volt), a taxa medida não pode ser explicada por neutrinos produzidos na atmosfera da Terra, indicando a natureza astrofísica dos neutrinos de alta energia. A análise apresentada nesta pesquisa sugere que mais de metade dos 21 neutrinos acima dos 100 TeV têm origem cósmica.

mapa celeste dos 21 eventos mais energéticos

© IceCube (mapa celeste dos 21 eventos mais energéticos)

Esta observação independente, com uma significância de 3,7 sigma e em boa concordância com os resultados anteriores da Colaboração Icecube, também confirma a elevada taxa de neutrinos astrofísicos. Apesar dos cientistas ainda os contarem "ao punhado", os resultados do IceCube estão perto dos valores máximos com base nas fontes potenciais de raios cósmicos. A intensidade deste fluxo mostra que as fontes de raios cósmicos são geradores eficientes de neutrinos. E, portanto, estas pequenas partículas são ainda mais tidas em conta como as ferramentas perfeitas para explorar o Universo extremo.

Os neutrinos de alta energia observados pertencem a uma nova amostra de neutrinos, tendo apenas um evento em comum com os primeiros resultados anunciados em 2013, que procurou neutrinos de alta energia que tinham interagido com o gelo dentro do IceCube durante o mesmo período de obtenção de dados. A pesquisa atual focou-se apenas nos neutrinos do múon. Estes neutrinos produzem um múon quando interagem com o gelo e têm uma assinatura característica no IceCube, que chamam de "track", o que os torna fácil de identificar. É esperada a mesma forma para um múon atmosférico, mas ao observar apenas o Hemisfério Norte, os cientistas sabem que um múon detectado só pode ter sido produzido pela interação de um neutrino.

Estas "tracks" induzidas por neutrinos têm uma boa resolução de apontamento, que podem usar para localizar as suas fontes com uma precisão inferior a 1 grau. No entanto, os estudos do IceCube ainda não encontraram um número significativo de neutrinos provenientes de uma única fonte. O fluxo de neutrinos medidos pelo IceCube no Hemisfério Norte tem a mesma intensidade que o fluxo astrofísico medido no Hemisfério Sul. Isto suporta a ideia de uma grande população de fontes extragaláticas, caso contrário as fontes na Via Láctea dominariam o fluxo em torno do plano galáctico.

Além disso, esta nova amostra de neutrinos de alta energia, quando combinada com as medições anteriores do IceCube, permitem as medições mais precisas, até à data, do espectro de energia e da composição do fluxo de neutrinos extraterrestres.

O IceCube, gerido pela Colaboração Icecube, é um detector de partículas localizado perto da Estação Amundsen-Scott no Pólo Sul. Está enterrado abaixo da superfície e estende-se até uma profundidade de aproximadamente 2.500 metros. Uma rede à superfície, o IceTop, e um subdetector interno mais denso, DeepCore, melhoram significativamente as capacidades do observatório, tornando-o numa instalação multiusos.

Os resultados são a primeira confirmação independente desta descoberta e foram publicados agora na revista Physical Review Letters. E também um segundo artigo foi publicado na revista The Astrophysical Journal.

Fonte: University of Wisconsin-Madison

quinta-feira, 16 de julho de 2015

A descoberta do pentaquark

Cientistas do Large Hadron Collider beauty (LHCb) anunciaram a descoberta de uma nova partícula, batizada de pentaquark.

ilustração de uma partícula pentaquark

© CERN (ilustração de uma partícula pentaquark)

A ilustração acima mostra um pentaquark de uma configuração possível de quarks composta por dois quarks up, um quark down, um quark charm e um antiquark charm.

O LHCb é um dos detectores de partículas construídos no acelerador LHC no European Organization for Nuclear Research (CERN), um acelerador de partículas gigantesco que fica na fronteira entre a França e a Suíça.

O LHCb é um experimento desenvolvido para medidas precisas da violação da simetria CP e decaimentos raros de mésons com o quark bottom ou sua antipartícula.

A simetria CP, é uma simetria quase exata das leis da natureza sobre o efeito do transformação entre partículas em antipartículas, a assim chamada conjugação de Carga, e a inversão das coordenadas espaciais, a Paridade, como por exemplo um elétron de spin-up transformando-se num pósitron de spin-down.

A ideia da simetria CP surgiu quando da descoberta da violação da paridade em certas reações de radioatividade nos anos 1950, mas só foi realmente estabelecida em 1964 quando a interação fraca violava esta simetria.

A primeira previsão da existência do pentaquark foi feita na década de 1960, mas, assim como o Bóson de Higgs, os cientistas não conseguiram detectar o pentaquark durante décadas.

Em 1964, dois físicos, Murray Gell-Mann e George Zweig, propuseram, separadamente, a existência de partículas subatômicas conhecidas como quarks.

Esta teoria afirmava que as propriedades mais importantes de partículas conhecidas como bárions e mésons poderiam ser melhor explicadas se elas fossem formadas por partículas ainda menores. Zweig chamou estas partículas menores de "ases", um nome que não ficou muito popular. Gell-Mann as chamou de "quark", o nome pelo qual elas são conhecidas hoje.

O modelo proposto pelos cientistas também permitiu a descoberta de outros estados dos quarks, como o pentaquark. Esta partícula, que anteriormente tinha uma concepção puramente teórica, é composta de quatro quarks e um antiquark. Isto é equivalente à descoberta de uma nova forma de matéria.

Durante a primeira década dos anos 2000, várias equipes de cientistas alegaram ter detectado os pentaquarks, mas estas descobertas foram questionadas por outros experimentos.

"Existe uma história e tanto com os pentaquarks, por isso estamos sendo muito cuidadosos ao apresentar esta pesquisa," afirmou Patrick Koppenburg, físico coordenador do LHC no CERN.

"É só a palavra 'pentaquark', que parece ser amaldiçoada de alguma forma, pois foram feitas muitas descobertas que, em seguida, foram superadas por novos resultados que mostravam que as anteriores eram flutuações, e não sinais verdadeiros (da existência da partícula)," acrescentou.

Os físicos estudaram a forma como uma partícula subatômica, a Lambda b, se transformou em outras três partículas dentro do LHC. A análise revelou que estados intermediários estavam envolvidos, em algumas ocasiões, na produção das três partículas. Estes estados intermediários foram denominados de Pc+(4450) e Pc+(4380).

"Examinamos todas as possibilidades para estes sinais e concluímos que eles só podem ser explicados pela existência dos estados de matéria pentaquark," afirmou o físico do LHC Tomasz Skwarnicki, da Universidade de Syracuse, nos Estados Unidos.

Experiências anteriores tinham medido apenas a chamada distribuição de massa, na qual um pico estatístico pode aparecer contra o ruído de fundo, um possível sinal da existência de uma nova partícula.

Mas, o colisor permitiu que os pesquisadores analisassem os dados de outras perspectivas, principalmente os quatro ângulos definidos pelas direções diferentes das trajetórias das partículas dentro do LHC.

"Não tem como o que vimos ser devido a qualquer outra coisa que não a adição de uma nova partícula que não tinha sido observada antes," disse Koppenburg.

"O pentaquark não é apenas uma nova partícula qualquer. Representa uma forma de agregar quarks, os principais componentes dos prótons e nêutrons comuns, em um padrão que nunca foi observado antes em mais de 50 anos de buscas experimentais", afirmou Guy Wilkinson, porta-voz do LHC.

Estudar suas propriedades pode permitir uma melhor compreensão de como a matéria comum, os prótons e nêutrons, são constituídos.

O Grande Colisor de Hádrons foi ligado novamente em abril depois de um desligamento que durou dois anos para completar um programa de reparos e atualizações, efetuando colisões com energia de 13 TeV ((teraelétrons-volt ou trilhões de elétrons-volt).

Um artigo foi divulgado na revista especializada Physical Review Letters.

Fonte: CERN

quinta-feira, 7 de maio de 2015

Sinal galáctico na busca da matéria escura

Essa é uma das observações mais disputadas da física. Mas logo poderá haver uma explicação para um misterioso excesso de fótons de alta energia no centro da Via Láctea.

raios γ do Centro Galáctico

© A. Mellinger/T. Linden/NASA (raios γ do Centro Galáctico)

A análise mais recente sugere que o sinal poderia vir de partícula de matéria escura com a massa necessária exata para ser encontrada no maior acelerador de partículas do mundo.
O Grande Colisor de Hádrons (LHC), localizado no laboratório CERN de física de partículas perto de Genebra, na Suíça, deve voltar a colidir prótons neste verão boreal após um hiato de dois anos. Os cientistas pretendem tornar a busca por essa partícula uma das principais metas da segunda ativação do colisor.
Uma detecção positiva esclareceria a fonte dos raios γ (gama) galácticos. Também revelaria a natureza da matéria escura, substância invisível que se acredita compor cerca de 85% da matéria do Universo, seria uma evidência, procurada há muito tempo, da supersimetria, e assim, um forte argumento para se estender o atual modelo padrão da física de partículas.
“Essa poderia ser a explicação mais promissora para o Centro Galáctico já proposta até hoje”, declara Dan Hooper, do Laboratório Nacional do Acelerador Fermi (Fermilab) em Batavia (EUA), mas adiciona que “existem outras que não estão muito atrás”.
Em 2009, Hooper e Lisa Goodenough, então aluna de pós-graduação da New York University, foram os primeiros a identificar o sinal em dados do telescópio espacial de raios gama Fermi, da Nasa. Eles propuseram que a observação era uma assinatura da matéria escura. Duas partículas de matéria escura em colisão aniquilariam uma à outra, assim como ocorre com matéria e antimatéria. A aniquilação geraria uma sucessão de partículas de vida curta que acabariam produzindo raios γ.
Mas a partícula proposta, que foi batizada de hooperon ou gooperon em homenagens aos cientistas, logo encontrou problemas com a versão favorita da supersimetria. Ainda que a extensão supersimétrica mínima do modelo padrão (MSSM) permita partículas de matéria escura com a massa estimada de hooperons, cerca de 25 a 30 gigaeletronvolts (1 GeV é aproximadamente a massa de um próton), vários experimentos já sugeriram que as partículas devem ser mais pesadas que isso. Para acomodar hooperons, a MSSM teria que ser modificada o suficiente para deixar muitos físicos desconfortáveis. “Nós precisaríamos de uma teoria completamente nova”, observa Sascha Caron, físico de partículas da Universidade Radbound Nijmegen, na Holanda, que lidera a equipe responsável pelos cálculos mais recentes.
Céticos sugeriram que o excesso de raios γ observado nos dados do Fermi tinham explicações mais simples, como emissões de estrelas de nêutrons ou resquícios de explosões estelares.
Mas no final de 2014, perceberam que os cálculos para a variação da massa de partículas de matéria escura que seriam compatíveis com as observações do Fermi eram conservadores demais. Novas estimativas do ‘ruído’ de raios γ produzido por fontes conhecidas, fornecidas pela equipe científica do Fermi e outras, permitem partículas muito mais pesadas. “O excesso pode ser explicado com uma partícula de até 200 GeV”, explica Simona Murgia, física da University of California, Irvine, e uma das principais cientistas da equipe do Fermi.
Armados com essa ideia, Caron e seus colaboradores recalcularam as previsões da teoria MSSM e encontraram outra possível explicação para o excesso, um candidato existente à matéria escura chamado de neutralino. O neutralino era pesado o suficiente para não ser excluído por experimentos anteriores, mas leve o suficiente para poder ser produzido na segunda ativação do LHC.
O modelo de Caron também permite uma previsão para a quantidade de matéria escura que deveria ter sido criada no Big Bang, que é compatível com observações da radiação cósmica de fundo, a radiação remanescente do Big Bang, realizadas pela sonda Planck, da ESA. Isso não pode ser uma coincidência, afirma ele. “Eu acho isso incrível”.
A equipe de Caron não é a única reavaliando as observações do Fermi sob a perspectiva das novas estimativas. Cálculos semelhantes, mas menos detalhados, realizados pelo físico Patrick Fox, do Fermilab, e seus colegas em novembro último também revelaram o neutralino como uma possível causa dos raios γ do Fermi. E Katherine Freese, diretora do Nordita, o Instituto Nórdico de Física Teória em Estocolmo, declara que ela e seus colaboradores calcularam que o excesso poderia ser provocado por um tipo de matéria escura que faz parte de uma teoria menos popular da supersimetria.
A resolução desses problemas pode estar logo adiante. Além de ser produzido no LHC, o neutralino também poderia estar ao alcance de experimentos subterrâneos da próxima geração, prontos a detectar partículas de matéria escura que por acaso atravessem a Terra, informa o físico Albert De Roeck. Roeck trabalha no CMS, um dos dois detectores do LHC que caçarão a matéria escura. Se essa partícula realmente for a causa dos raios γ, é possível que os sinais de matéria escura sejam observados muito em breve.

Fonte: Nature

sábado, 2 de maio de 2015

Descoberto monopolo no campo quântico

Pesquisadores da Universidade de Aalto (Finlândia) e Amherst College (EUA) tem observado um monopolo no campo quântico pela primeira vez.

ilustração de um monopolo no campo quântico

© Heikka Valja (ilustração de um monopolo no campo quântico)

Esta descoberta se conecta às características importantes do elusivo monopolo magnético. Os pesquisadores realizaram um experimento em que manipularam um gás de átomos de rubídio preparados em um estado não imantado perto da temperatura do zero absoluto. Sob estas condições extremas foi possível criar um monopolo no campo da mecânica quântica que descreve o gás.
"Neste estado não magnético, foi criada uma estrutura no campo descrevendo o gás, assemelhando-se ao monopolo magnético, conforme descrito nas grandes teorias unificadas da física de partículas. Anteriormente, foi utilizada um gás para detectar um monopolo dentro de um chamado campo magnético sintético, mas não houve a ocorrência de monopolo no campo quântico que descreve o próprio gás. Agora finalmente testemunhamos a existência do monopolo da mecânica quântica!", alega o Dr. Mikko Möttönen da Universidade Aalto.

condensado de Bose-Einstein contendo o monopolo

© U. Aalto (condensado de Bose-Einstein contendo o monopolo)

A imagem acima mostra um condensado de experimentalmente criado de Bose-Einstein contendo um monopolo (à esquerda) e a previsão teórica correspondente (à direita). Área mais clara tem maior densidade de partículas e as diferentes cores indicam o estado de rotação interna dos átomos. O monopolo está localizado no centro do condensado.

No estado não magnético do gás, não há remoinhos quânticos ou monopolos que são criados no campo magnético sintético. Entretanto, a ordem magnética prevalece na amostra no campo da mecânica quântica, e os cientistas foram capazes de manipular isso com ajustes para um campo magnético aplicado externamente.
"O controle desses campos magnéticos deve ser estável a uma pequena fração do tamanho do campo magnético da Terra", acrescenta o Prof. David Hall do Amherst College. "O principal desafio experimental que enfrentamos foi preparar o gás criogênico em condições altamente sensíveis, em que as flutuações do campo devido ao movimento de objetos metálicos ou variações de linha de energia podem propiciar a observação dos monopolos difíceis".
O resultado é um notável avanço na pesquisa na área quântica. É importante compreender a estrutura dos monopolos e outras entidades topológicas, porque elas aparecem nos modelos que descrevem o Universo precoce e afeta as propriedades de muitos materiais diferentes, tais como os metais.
A descoberta de uma partícula de monopolo magnético poderá ocorrer no futuro. Este novo resultado estabelece que a estrutura de um monopolo na mecânica quântica pode ser exibido na natureza e, portanto, suporta ainda a possibilidade de que existem monopolos magnéticos.

Fonte: Science

Polarons viajando em material fotoativo

Pesquisadores do Instituto de Tecnologia de Karlsruhe (KIT) têm revelado um importante passo na conversão de luz em energia armazenável.

migração de polarons em ZnO

© Patrick Rinke/Aalto University (migração de polarons em ZnO)

Cientistas do Instituto Fritz Haber, em Berlim (Alemanha) e da Universidade Aalto em Helsinque (Finlândia) estudaram a formação dos chamados polarons em óxido de zinco (ZnO).

As pseudopartículas viajam através do material fotoativo até que elas são convertidas em energia elétrica ou química numa interface.

Processos de conversão da luz em energia armazenável podem contribuir de forma decisiva para um fornecimento de energia sustentável. Há bilhões de anos, a natureza vem utilizando esses processos para a fotossíntese para formar carbohidratos com a ajuda da luz. Na pesquisa, a fotocatálise que utilza a luz para acelerar processos químicos está ganhando importância. Nos últimos anos, os pesquisadores também realizaram progressos consideráveis ​​em células fotovoltaicas convertem a luz solar incidente diretamente em energia elétrica, com eficiência constantemente melhorada.
No entanto, os processos de energia fotovoltaica subjacentes dificilmente têm sido estudadas em detalhe até aqui. "A conversão de fótons, ou seja, partículas de luz, em energia elétrica tem várias etapas," explica o professor Christof Wöll, chefe do Instituto de Interfaces Funcionais (IFG) do KIT. Primeiro, a luz é absorvida num material fotoativo, onde elétrons individuais são removidos de suas posições na rede atômica e deixando lacunas. Os pares elétron-lacuna são estáveis ​​apenas durante um curto prazo de tempo. Em seguida, eles decaiem sob a emissão de luz ou são separados se movendo no material de forma independente um do outro. O destino desta partícula carregada então depende do material.
Na maioria dos materiais, as lacunas livres não são estáveis, convertendo-se em um polaron, o que pode envolver perda de energia. Um polaron é uma pseudopartícula descrita é composta por uma carga positiva e a sua interação com o seu ambiente. Pesquisadores do KIT sob a direção do Professor Christof Wöll já realizadas experiências usando material de óxido de zinco fotoactivo, a fim de estudar a formação ea migração de polarons. Os pesquisadores do KIT empregaram uma configuração experimental única a nível mundial para a espectroscopia de absorção de reflexão de infravermelha (IRRAS) com uma resolução temporal de 100 milissegundos e o infravermelho medido em monocristais de óxido de zinco, onde observaram bandas de absorção intensivos, ou seja, impressões digitais, de uma pseudopartícula até agora desconhecida. A interpretação dos dados e identificação desta nova pseudopartícula foram grandes desafios para os pesquisadores. Em cooperação com um grupo de trabalho no Instituto Fritz Haber e do Centro de Excelência para Nanociência Computacional (COMP), da Universidade de Aalto, no entanto, eles conseguiram de forma inequívoca atribuição das bandas de absorção denominadas de lacunas de  polarons. "Esta é uma importante descoberta feita em 2015, o Ano Internacional da Luz e tecnologias baseadas na Luz", diz o professor Wöll.

Esta descoberta relevante para a energia fotovoltaica foi publicada na revista Nature Communications.

Fonte: Karlsruhe Institute of Technology

domingo, 29 de março de 2015

Cristais quadrados de gelo

Quando a água está confinada em alta pressão entre folhas de grafeno suas moléculas adotam uma configuração quadrada.

cristais de gelo entre folhas de grafeno

© Universidade de Ulm (cristais de gelo entre folhas de grafeno)

A imagem mostra uma bolsa de gelo entre duas folhas de grafeno visto em um microscópio eletrônico de transmissão. As manchas escuras de alto contraste são átomos de oxigênio que indicam posições de moléculas de água. Os átomos de hidrogênio deu muito pouco contraste fornecendo baixa resolução.

Uma equipe de físicos da Universidade de Ciência e Tecnologia da China, da Universidade de Manchester, Reino Unido, e da Universidade de Ulm, na Alemanha observaram esta configuração quadrada.
Em nosso cotidiano, estamos familiarizados com água em suas formas líquidas mais comum, de gelo e de vapor.

Os pesquisadores também analisaram a água sob condições mais extremas, incluindo com pressões elevadas, onde ela pode existir no estado sólido mesmo à temperatura ambiente.

Os cristais de gelo nas formas tetraédricas lindamente simétricas podem ser vistos em flocos de neve e na superfície de lagos congelados. Essas geometrias podem persistir em situações de pressões muito elevadas, mesmo que a estrutura subjacente sofre mudanças de fase tanto sutis e dramáticas com variação da pressão. Isso certamente se aplica à água sem restrições.

Quando confinado entre outros materiais, no entanto, o comportamento de água é influenciada por interações com superfícies de materiais nucleares.

Em um novo estudo realizado pelo Dr. Gerardo Algara-Siller da Universidade de Ulm, e seus colegas, uma monocamada grafeno foi primeiro depositada sobre uma grelha de microscópio eletrônico de transmissão, e em seguida exposta a uma gota de água e coberta com uma outra camada de grafeno.

Grande parte da água foi espremida para fora do sanduíche de grafeno pela força de van der Waals. O restante foi preso em bolsas com menos de um milionésimo de metro de diâmetro.

"Nós não sabíamos a princípio o que estávamos vendo, e apenas em discussão com os nossos colegas de Manchester foi concebida a ideia de gelo quadrado", disse o Prof. Ute Kaiser, da Universidade de Ulm, um co-autor do estudo.

Este estudo pode melhorar a nossa compreensão do transporte de água através de canais em escala nanométrica em membranas naturais e artificiais.

Os resultados foram publicados na revista Nature.

Fonte: Universitäten Ulm

domingo, 15 de fevereiro de 2015

Descobertas duas novas partículas

Físicos do Large Hadron Collider (LHC) do European Organization for Nuclear Research (CERN) detectaram duas partículas subatômicas nunca vistas antes.

ilustração da partícula Ξb

© APS/Alan Stonebraker (ilustração da partícula Ξb)

As partículas Ξb foram previstas pelo modelo de quarks e estima-se que possuem cerca de seis vezes a massa do próton, sendo que em experiências anteriores não foram detectadas devido à energia insuficiente para produzir essas partículas massivas. As detecções com novas medidas de precisão das massas das partículas Ξb, irão colocar restrições mais rígidas sobre a teoria da física de partículas.

O quark, na física de partículas, é uma partícula elementar e um dos dois elementos básicos que constituem a matéria. Outro é o lépton, como o elétron (e-), o múon e seus neutrinos. Os quarks se combinam para formar partículas compostas chamadas hádrons; os mais estáveis desse tipo são os prótons e os nêutrons, que são os principais componentes dos núcleos atômicos. Devido a um fenômeno conhecido como confinamento, os quarks nunca são diretamente observados ou encontrados isoladamente; eles podem ser encontrados apenas dentro de hádrons e os mésons. Existem seis tipos de quarks: up, down, strange, charm, bottom, e top. Os quarks up e down possuem as menores massas entre todos os quarks. Os quarks mais pesados mudam rapidamente para quarks up down por meio de um processo de decaimento. Devido a isso, quarks up e down são geralmente estáveis e são os mais comuns no Universo, enquanto que os quarks strange, charm, bottom e top só podem ser produzidos em colisões de alta energia, como as que envolvem os raios cósmicos e em aceleradores de partículas.

Os novos quarks descobertos vêm das três famílias: up/down, strange/charm e bottom/top. Em 2007, os físicos observaram a primeira partícula com um quark de cada família: Ξ-b, composto por um bottom, um strange, e um down, dando-lhe uma carga negativa de -1. No entanto, esta é apenas a versão de menor massa dessa combinação de três famílias de quarks. A teoria do modelo de quarks prevê a existência de dois primos de massa mais elevada de Ξ-b, chamados Ξ'-b e Ξ*-b, os quais são caracterizados pela seu spin de 1/2 e 3/2, respectivamente.

Para confirmar a existência dessas partículas Ξ-b de curta duração, o experimento Large Hadron Collider beauty (LHCb) no CERN observou a evidência do decaimento das partículas Ξ-b em dados de colisões próton-próton em energias de 7 e 8 TeV (tera-elétron-volts). Especificamente, eles investigaram o decaimento para um Ξ0b neutro e um píon de carga negativa (π-). Eles observaram assinaturas para as duas partículas com massas de 5.935 e 5.955 MeV (mega-elétron-volts), correspondendo as partículas Ξ'-b e Ξ*-b, respectivamente. Os resultados vieram como uma surpresa, já que muitos modelos previram que a Ξ'-b não era massiva o suficiente para se decompor por este caminho, e uma busca em outro experimento do CERN não tinha encontrado o decaimento equivalente a uma partícula intimamente relacionada à partícula Ξ'0b. Usando as novas medições muito precisas de massa, os teóricos serão capazes de aperfeiçoar os seus modelos, especificamente aqueles que prevêem a massa de outras partículas à base de quarks.

Fonte: Physical Review Letters

Curvatura quântica da luz

A luz viajando perto de um objeto é desviada de seu caminho por causa da força da gravidade.

curvatura quântica da luz

© NASA (curvatura quântica da luz)

Para um objeto de grande massa como o Sol, este desvio é mensurável. As melhores medições até o momento mostram que a atração gravitacional do Sol desvia a luz por 0,00049º de acordo com as previsões da relatividade geral. Agora Niels Bjerrum-Bohr, do Instituto Niels Bohr, na Dinamarca, e colegas calcularam como esse desvio seria alterado quando a gravidade é descrita como um campo quântico.

Os autores descrevem a gravidade usando uma teoria de campo eficaz, uma aproximação de baixa energia de uma possível teoria quântica de campo subjacente da gravidade. Isto permitiu-lhes computar a junção de fótons com efeitos gravitacionais, formulando uma solução analítica para o problema da deflexão da luz por um objeto pesado, como o Sol ou um buraco negro de Schwarzschild. Embora a sua correção quântica predita é demasiado pequena para ser medido experimentalmente, onde o efeito da gravidade é 80 ordens de grandeza maior, eles mostram que os efeitos quânticos causam uma diferença. Esta diferença decorre do fato de que as partículas sem massa como fótons não estão mais restritas a viajar exatamente sobre geodésicas, ou seja, na relatividade geral, as linhas retas modificados pela curvatura do espaço-tempo ao longo de qualquer movimento de partículas em queda livre. Em particular, elas são previstas para dobrar de forma diferente dependendo da sua rotação.

Estas alterações do comportamento previsto pela relatividade geral denota o desvio do princípio da equivalência de Einstein. A estrutura computacional apresentada pelos autores fornece uma maneira simples de avaliar os possíveis efeitos da gravidade quântica em e outros fenômenos cosmológicos.

Fonte: Physical Review Letters