terça-feira, 3 de outubro de 2023

Captando os momentos mais curtos

Os três ganhadores do Nobel de Física 2023 estão sendo reconhecidos por seus experimentos no âmbito da física quântica, que deram à humanidade novas ferramentas para explorar o mundo dos elétrons dentro dos átomos e moléculas.

© Revista Física (nuvem eletrônica)

Pierre Agostini, Ferenc Krausz e Anne L’Huillier demonstraram uma maneira de criar pulsos de luz extremamente curtos que podem ser usados para medir os processos rápidos nos quais os elétrons se movem ou mudam de energia. 

Em 1987, a física francesa Anne L'Huillier, professora de Física Atômica na Universidade de Lund, Suécia, descobriu que quando a luz laser infravermelha era transmitida por meio de um gás nobre surgiam muitos tons diferentes de luz. Depois disso, a cientista continuou explorando o fenômeno, preparando a construção para descobertas posteriores. Ela é a quinta mulher a ganhar um Prêmio Nobel de Física, seguindo a Marie Curie (1903), Maria Goeppert-Mayer (1963), Donna Strickland (2018) e Andrea Ghez (2020). 

Já o franco-americano Pierre Agostini, professor da Universidade Estadual de Ohio, EUA, conseguiu em 2001 produzir e investigar uma série de pulsos de luz consecutivos, em que cada pulso durava apenas 250 attosegundos, inventando com a sua equipe o chamado RABBIT, ou seja, a reconstrução de batimentos de attossegundos por interferência de transições de dois fótons. 

Na mesma época, um experimento científico do húngaro Ferenc Krausz, professor da Ludwig-Maximilians-University Munique, Alemanha, possibilitou o isolamento de um único pulso de luz com duração de 650 attosegundos. 

As contribuições dos laureados permitiram a pesquisa de processos tão rápidos que antes eram impossíveis de acompanhar. Um pequeno colibri pode bater as asas 80 vezes por segundo. Só conseguimos perceber isso como um zumbido e movimento turvo. Para o sentidos humanos, movimentos rápidos se confundem, e eventos extremamente curtos são impossíveis de observar. Precisamos usar truques tecnológicos para capturar ou retratar esses breves instantes. Fotografia de alta velocidade e iluminação estroboscópica permite capturar imagens detalhadas de fenômenos rápidos. Uma fotografia altamente focada de um beija-flor em ação requer uma exposição tempo que é muito mais curto do que uma única batida de asas. Quanto mais rápido o evento, mais rápido a imagem precisa ser tomada se for para capturar o instante. 

O mesmo princípio se aplica a todos os métodos utilizados para medir ou representar processos rápidos; qualquer medida deve ser realizada mais rapidamente do que o tempo que leva para o sistema em estudo sofrer uma mudança perceptível, caso contrário o resultado será vago. 

Os laureados deste ano realizaram experiências que demonstram um método para produzir pulsos de luz que são breves o suficiente para capturar imagens de processos dentro dos átomos e moléculas. A escala de tempo natural dos átomos é incrivelmente curta. Em uma molécula, os átomos podem se mover e girar em femtosegundos (milionésimos de um bilionésimo de segundo). Esses movimentos podem ser estudados com o mais curto pulsos que podem ser produzidos com um laser, mas quando átomos inteiros se movem a escala de tempo é determinada por seus núcleos grandes e pesados, que são extremamente lentos em comparação com elétrons leves e ágeis. Quando os elétrons se movem dentro de átomos ou moléculas, eles fazem isso tão rapidamente que as mudanças ficam próximas de um femtosegundo. 

No mundo dos elétrons, as posições e as energias mudam a velocidades entre um e algumas centenas de attosegundos (bilionésimo de bilionésimo de segundo). Um attosegundo é tão curto que o número deles em um segundo é igual ao número de segundos que se passaram desde que o Universo surgiu, 13,8 bilhões de anos atrás. Um femtosegundo foi considerado por muito tempo o limite para os flashes de luz que era possível produzir. Melhorar a tecnologia existente não foi suficiente para ver os processos ocorrendo em um período surpreendentemente breve em escalas de tempo de elétrons; algo inteiramente novo era necessário. 

A luz consiste em ondas, ou seja, vibrações em campos elétricos e magnéticos, que se movem através do vácuo mais rápido do que qualquer outra coisa. Estes têm comprimentos de onda diferentes, equivalentes a cores diferentes. Por exemplo, a luz vermelha tem um comprimento de onda de cerca de 700  nm (nanômetros), um centésimo da largura de um fio de cabelo, e ele circula cerca de 430 trilhões de vezes por segundo. Podemos pensar em o pulso de luz mais curto possível como a duração de um único período na onda de luz, o ciclo onde ele sobe até um pico, desce até um vale e volta ao ponto inicial. Neste caso, os comprimentos de onda usados em sistemas de laser comuns nunca conseguem chegar abaixo de um femtosegundo, então na década de 1980 isso foi considerado como um limite rígido para as emissões de luz mais curtas possíveis. 

No experimento projetado, quando a luz do laser entra no gás e afeta seus átomos, causa vibrações eletromagnéticas que distorcem o campo elétrico que mantém os elétrons ao redor do núcleo atômico. Os elétrons podem então escapar dos átomos. No entanto, o campo elétrico da luz vibra continuamente e, quando ele muda de direção, um elétron solto pode retornar ao núcleo do seu átomo. Durante excursão do elétron, ele coletou muita energia extra do campo elétrico da luz laser e, para reconectar ao núcleo, ele deve liberar seu excesso de energia como um pulso de luz, no caso, no ultravioleta. Esses pulsos de luz dos elétrons criam as conotações que aparecem nos experimentos. 

Pulsos de attossegundos permitem medir o tempo que leva para um elétron ser puxado de um átomo, e examinar como o tempo que isso leva depende de quão fortemente o elétron está ligado ao núcleo do átomo. É possível reconstruir como a distribuição de elétrons oscila posicionalmente em moléculas e materiais; anteriormente a sua posição só poderia ser medida como uma média. 

Estes pulsos podem ser usados para testar os processos internos da matéria e para identificar diferentes eventos. Existem aplicações potenciais em muitas áreas diferentes. Na eletrônica, por exemplo, é importante compreender e controlar como os elétrons se comportam em um material. Eles também podem ser usados para identificar diferentes moléculas, como em diagnósticos médicos, possibilitando nova técnica analítica de diagnóstico in vitro para detectar traços moleculares característicos de doenças em amostras de sangue.

O Prêmio Nobel da Física deste ano abre janelas que antes eram inimaginável para Heisenberg, explorar fenômenos que antes eram impossíveis de observar.

Fonte: Royal Swedish Academy of Sciences

sexta-feira, 18 de agosto de 2023

Propriedades dos neutrinos em supernovas

Num novo estudo, pesquisadores deram um passo importante para compreender como as estrelas em explosão podem ajudar a revelar como os neutrinos, misteriosas partículas subatômicas, interagem secretamente entre si.

© OSU (ilustração de neutrinos gerados por supernovas)

Os neutrinos, que são das partículas elementares menos bem compreendidas, raramente interagem com a matéria normal e, ao invés, viajam invisivelmente através dela quase à velocidade da luz. Estas partículas fantasmagóricas são mais numerosas do que todos os átomos do Universo e estão sempre passando inofensivamente pelos nossos corpos, mas devido à sua baixa massa e à ausência de carga elétrica, podem ser incrivelmente difíceis de encontrar e de estudar. 

No entanto, pesquisadores da Universidade do Estado do Ohio estabeleceram um novo quadro que explica como as supernovas, explosões massivas que anunciam a morte de estrelas em colapso, podem ser utilizadas como ferramentas poderosas para estudar a forma como as autointerações dos neutrinos podem causar vastas alterações cosmológicas no Universo.

Os neutrinos têm apenas taxas de interação muito pequenas com a matéria típica, pelo que é difícil detectá-los e testar as suas propriedades. É por isso que temos de usar a astrofísica e a cosmologia para descobrir fenômenos interessantes sobre eles. Considerados importantes para a formação do Universo primitivo, os neutrinos continuam intrigantes, apesar de se saber que têm origem em várias fontes, como reatores nucleares ou no interior de estrelas moribundas. 

Mas, calculando a forma como as autointerações afetariam o sinal de neutrinos da SN 1987A, a supernova mais próxima observada nos tempos modernos, os astrofísicos descobriram que, quando os neutrinos interagem entre si, formam um fluido fortemente acoplado que se expande sob a hidrodinâmica relativista, um ramo da física que lida com a forma como os fluxos afetam os objetos sólidos de duas maneiras diferentes. 

No caso do chamado "fluxo de explosão", a equipe teoriza que, tal como rebentar um balão altamente pressurizado no vácuo do espaço empurraria a energia para fora, uma explosão produz um fluido de neutrinos que se move em todas as direções. O segundo caso, descrito como um "fluxo de vento", imagina um balão altamente pressurizado com muitos bocais, onde os neutrinos escapam a um ritmo mais constante, semelhante a um jato de vento constante.

Embora a teoria do fluxo de vento seja mais provável de ocorrer na natureza, se o caso da explosão se concretizar, os cientistas poderão ver novas assinaturas observáveis de neutrinos emitidas por supernovas, permitindo uma sensibilidade sem precedentes nas autointerações dos neutrinos. 

Uma das razões pelas quais é tão vital compreender estes mecanismos é que se os neutrinos estão agindo como um fluido, isso significa que estão atuando em conjunto. E se as propriedades dos neutrinos são diferentes como um coletivo do que individualmente, então a física das supernovas também pode sofrer alterações. Mas ainda não se sabe se estas alterações se devem apenas ao caso da explosão ou ao caso do fluxo de vento.

A dinâmica das supernovas é complicada, mas este resultado é prometedor porque, com a hidrodinâmica relativista, sabemos que há uma bifurcação na compreensão do seu funcionamento atual. Ainda assim, é necessário fazer mais estudos antes dos cientistas poderem excluir a possibilidade de o caso da explosão ocorrer também no interior das supernovas. 

Apesar destas incertezas, o estudo é um grande marco na resposta a uma questão astrofísica com décadas de existência: como é que os neutrinos se dispersam quando são ejetados das supernovas?

Este estudo descobriu que, no caso da explosão, é possível uma sensibilidade sem precedentes às autointerações dos neutrinos, mesmo com dados esparsos de neutrinos da SN 1987A e pressupostos de análise conservadores. 

Este problema permaneceu praticamente intocado durante 35 anos. No futuro, a equipe espera que o seu trabalho seja usado como um trampolim para investigar melhor as autointerações dos neutrinos. No entanto, uma vez que, na Via Láctea, só ocorrem cerca de duas ou três supernovas por século, é provável que os pesquisadores tenham de esperar décadas para recolher suficientes dados de neutrinos e assim provar as suas ideias.

Um artigo foi publicado no periódico Physical Review Letters

Fonte: Ohio State University

sábado, 3 de junho de 2023

Um raro decaimento do bóson de Higgs

A descoberta do bóson de Higgs no Large Hadron Collider (LHC) do CERN em 2012 marcou um marco significativo na física de partículas.


© V. H. Visions (decaimento do bóson de Higgs)

Desde então, as colaborações ATLAS e CMS têm investigado diligentemente as propriedades desta partícula única e buscado estabelecer as diferentes maneiras pelas quais ela é produzida e se decompõe em outras partículas. 

Na conferência Large Hadron Collider Physics (LHCP), ATLAS e CMS relatam como se uniram para encontrar a primeira evidência do raro processo no qual o bóson de Higgs decai em um bóson Z, o portador eletricamente neutro da força fraca, e um fóton, o portador da força eletromagnética. Este decaimento do bóson de Higgs pode fornecer evidências indiretas da existência de partículas além daquelas previstas pelo Modelo Padrão da física de partículas. 

O decaimento do bóson de Higgs em um bóson Z e um fóton é semelhante ao decaimento em dois fótons. Nestes processos, o bóson de Higgs não decai diretamente nestes pares de partículas. Em vez disso, os decaimentos ocorrem por meio de um "loop" intermediário de partículas "virtuais" que surgem e desaparecem e não podem ser detectadas diretamente. Estas partículas virtuais podem incluir partículas novas, ainda não descobertas, que interagem com o bóson de Higgs. 

O Modelo Padrão prevê que, se o bóson de Higgs tiver uma massa de cerca de 125 bilhões de elétron-volts, aproximadamente 0,15% dos bósons de Higgs decairão em um bóson Z e um fóton. Mas algumas teorias que estendem o Modelo Padrão preveem uma taxa de decaimento diferente. Medir a taxa de decaimento, portanto, fornece informações valiosas sobre a física além do Modelo Padrão e a natureza do bóson de Higgs. 

Anteriormente, usando dados de colisões próton-próton no LHC, o ATLAS e o CMS conduziram independentemente extensas pesquisas para o decaimento do bóson de Higgs em um bóson Z e um fóton. Ambas as buscas usaram estratégias semelhantes, identificando o bóson Z por meio de seus decaimentos em pares de elétrons ou múons (versões mais pesadas de elétrons). Estes decaimentos do bóson Z ocorrem em cerca de 6,6% dos casos.

Nestas buscas, os eventos de colisão associados a este decaimento do bóson de Higgs (o sinal) seriam identificados como um pico estreito, sobre um fundo suave de eventos, na distribuição da massa combinada dos produtos de decaimento. Para aumentar a sensibilidade ao decaimento, o ATLAS e o CMS exploraram os modos mais frequentes em que o bóson de Higgs é produzido e categorizaram os eventos com base nas características destes processos de produção. Foram também usadas técnicas avançadas de aprendizado de máquina para distinguir ainda mais entre eventos de sinal e de fundo. 

Em um novo estudo, o ATLAS e o CMS uniram forças para maximizar o resultado de suas buscas. Ao combinar os conjuntos de dados coletados por ambos os experimentos durante a segunda execução do LHC, que ocorreu entre 2015 e 2018, as colaborações aumentaram significativamente a precisão estatística e o alcance de suas pesquisas. Este esforço colaborativo resultou na primeira evidência do decaimento do bóson de Higgs em um bóson Z e um fóton. O resultado tem uma significância estatística de 3,4 desvios padrão, abaixo do requisito convencional de 5 desvios padrão para reivindicar uma observação. A taxa de sinal medida é 1,9 desvios padrão acima da previsão do Modelo Padrão.

Cada partícula tem uma relação especial com o bóson de Higgs, tornando a busca por raros decaimentos de Higgs uma alta prioridade. A existência de novas partículas pode ter efeitos muito significativos nos raros modos de decaimento do Higgs. Este estudo é um teste poderoso do Modelo Padrão. Com a terceira execução em curso do LHC e o futuro LHC de alta luminosidade, será possível melhorar a precisão deste teste e sondar decaimentos de Higgs cada vez mais raros.

Fonte: CERN

quinta-feira, 1 de junho de 2023

Ouvindo o "timbre" dos buracos negros

A teoria da relatividade geral de Albert Einstein descreve a forma como o tecido do espaço-tempo, é curvado em resposta à massa.

© Y. Steele (ilustração do espaço-tempo de um buraco negro)

A imagem mostra o remanescente da fusão de um buraco negro binário que está emitindo as suas últimas ondas gravitacionais antes de assentar. As ondas gravitacionais previstas pela relatividade geral são representadas pelas espirais azuis que se afastam do buraco negro. Os desvios da relatividade geral podem aparecer como deformações das ondas gravitacionais e são representados pelas espirais vermelhas.

O nosso Sol, por exemplo, deforma o espaço à nossa volta de tal forma que o planeta Terra orbita o Sol como uma bola de gude atirado para um funil (a Terra não cai para o Sol devido ao impulso lateral do planeta). 

A teoria, que foi revolucionária no momento em que foi proposta em 1915, reformulou a gravidade como uma curvatura do espaço-tempo. Por muito fundamental que esta teoria seja para a própria natureza do espaço à nossa volta, isso pode não ser o fim da história. Em vez disso, as teorias quânticas da gravidade, que tentam unificar a relatividade geral com a física quântica, contêm segredos sobre o funcionamento do nosso Universo a níveis mais profundos. 

Um dos locais onde se podem procurar assinaturas quânticas de gravidade é nas poderosas colisões entre buracos negros, onde a gravidade atinge o seu ponto mais extremo. Os buracos negros são os objetos mais densos do Universo, onde a sua gravidade é tão forte que espremem os objetos que neles caem como se fossem espaguete. 

Quando dois buracos negros colidem e se fundem num corpo maior, perturbam o espaço-tempo ao redor, enviando ondas gravitacionais em todas as direções. O LIGO (Laser Interferometer Gravitational-Wave Observatory) tem detectado regularmente ondas gravitacionais geradas por fusões de buracos negros desde 2015 (os seus observatórios parceiros, Virgo e KAGRA, juntaram-se à caça em 2017 e 2020, respetivamente). 

No entanto, até agora, a teoria da relatividade geral tem passado teste após teste, sem sinais de ruptura. Agora, dois novos artigos científicos liderados pelo Caltech (California Institute of Technology), publicados nos periódicos Physical Review X e Physical Review Letters, descrevem novos métodos para submeter a relatividade geral a testes ainda mais rigorosos.

Observando mais de perto as estruturas dos buracos negros e as ondulações no espaço-tempo que produzem, os cientistas procuram sinais de pequenos desvios da relatividade geral que indiciem a presença de gravitação quântica. Quando dois buracos negros se fundem para produzir um buraco negro maior, o buraco negro final gera um sinal sonoro.

A qualidade do seu timbre, pode ser diferente das previsões da relatividade geral se certas teorias da gravitação quântica estiverem corretas. Estes métodos foram concebidos para procurar diferenças na qualidade desta fase de descida do zumbido, como os harmônicos e os sobretons. 

O primeiro artigo, publicado na revista Physical Review X, apresenta uma nova equação para descrever o "timbre" dos buracos negros no âmbito de certas teorias quânticas da gravidade. O trabalho baseia-se numa equação inovadora desenvolvida há 50 anos por Saul Teukolsky, professor de astrofísica teórica no Caltech. Teukolsky tinha desenvolvido uma equação completa para compreender melhor a forma como as ondulações da geometria do espaço-tempo se propagam à volta dos buracos negros. Em contraste com os métodos numéricos da relatividade, em que são necessários supercomputadores para resolver simultaneamente muitas equações diferenciais da relatividade geral, a equação de Teukolsky é muito mais simples de utilizar e fornece uma visão física direta do problema. 

Se alguém quiser resolver todas as equações de Einstein da fusão de um buraco negro para a simular com precisão, tem de recorrer a supercomputadores. Os métodos numéricos da relatividade são extremamente importantes para simular com exatidão as fusões de buracos negros e constituem uma base crucial para a interpretação dos dados do LIGO. Mas é extremamente difícil para os físicos extrair intuições diretamente dos resultados numéricos. A equação de Teukolsky fornece uma visão intuitiva do que se está passando na fase de descida do zumbido. Esta equação permite modelar e compreender as ondas gravitacionais que se propagam à volta dos buracos negros, que são mais exóticas do que Einstein previu.

O segundo artigo, publicado na revista Physical Review Letters, descreve uma nova forma de aplicar a equação de Teukolsky aos dados reais obtidos pelo LIGO e pelos seus parceiros na sua próxima série de observações. Esta abordagem de análise de dados utiliza uma série de filtros para remover características do "timbre" de um buraco negro previstas pela relatividade geral, de modo a que possam ser reveladas assinaturas potencialmente sutis além da relatividade geral.

Os físicos encontraram uma forma de traduzir um grande conjunto de equações complexas numa só equação, o que é extremamente útil. Esta equação é mais eficiente e mais fácil de usar do que os métodos que usados anteriormente. Os dois estudos complementam-se e podem aumentar significativamente a capacidade para sondar a gravidade.

Fonte: California Institute of Technology

terça-feira, 4 de outubro de 2022

O poder do emaranhamento quântico

Alain Aspect, John Clauser e Anton Zeilinger conduziram experimentos inovadores usando estados quânticos emaranhados, onde duas partículas se comportam como uma única unidade, mesmo quando separadas.

© J. Jarnestad (ilustração de um emaranhamento quântico)

Alain Aspect nasceu em 1947 em Agen, na França. Em 1983, terminou seu doutorado na universidade francesa Paris-Sud. Atualmente, ele é professor na Universidade Paris-Saclay e na Escola Politécnica, ambas também na França. John F. Clauser nasceu em 1942 em Pasadena, Califórnia, EUA. Seu doutorado foi cursado na Universidade Columbia, em Nova York. Agora, ele atua como pesquisador de física na J. F. Clauser e Associados. Anton Zeilinger nasceu em 1945 na Áustria. Ele estudou o doutorado na Universidade de Viena, onde atualmente atua como professor acadêmico.

Seus resultados abriram caminho para novas tecnologias baseadas em informações quânticas. Os efeitos inefáveis da mecânica quântica estão começando a encontrar aplicações. Existe agora um grande campo de pesquisa que inclui computadores quânticos, redes quânticas e comunicação criptografada quântica segura. 

Um fator preponderante neste desenvolvimento é como a mecânica quântica permite que duas ou mais partículas existam no que é chamado de estado emaranhado. O que acontece com uma das partículas em um par emaranhado determina o que acontece com a outra partícula, mesmo que estejam distantes. O físico Erwin Schrödinger disse que o emaranhamento era a característica mais importante da mecânica quântica.

A física quântica é a área dedicada aos estudos de minúsculas partículas que formam o Universo e as interações que ocorrem entre elas. Uma comparação do estado emaranhado entre partículas seria com uma máquina que lança bolas brancas e pretas em direções opostas. Um indivíduo que está em um dos lados recebe uma bola branca e, então, conclui que a bola da posição oposta foi preta. Quando esta situação é analisada pelo aspecto da física quântica, a explicação se torna um tanto mais complexa. As bolas seriam as partículas e estariam em um par emaranhado porque, quando alguém recebe uma delas, já pode determinar qual o estado (cor) da outra. No entanto, para a física quântica, a propriedade destas bolas antes de lançadas seria, na realidade, cinza. É só quando uma das pessoas percebe que a bola recebida é preta que a cor da outra se modificaria, tornando-se branca.

Por muito tempo, a questão era se a correlação era porque as partículas em um par emaranhado continham variáveis ocultas, instruções que lhes diziam qual resultado deveriam dar em um experimento. Na década de 1960, John Stewart Bell desenvolveu a desigualdade matemática que leva seu nome. Isto afirma que, se houver variáveis ​​ocultas, a correlação entre os resultados de um grande número de medições nunca excederá um determinado valor. No entanto, a mecânica quântica prevê que um certo tipo de experimento violará a desigualdade de Bell, resultando em uma correlação mais forte do que seria possível. 

John Clauser desenvolveu as ideias de John Bell, levando a um experimento prático. Quando ele fez as medições, elas apoiaram a mecânica quântica violando claramente uma desigualdade de Bell. Isto significa que a mecânica quântica não pode ser substituída por uma teoria que usa variáveis ​​ocultas. 

Algumas brechas permaneceram após o experimento de John Clauser. Alain Aspect desenvolveu a configuração, usando-a de uma forma que fechou uma brecha importante. Ele foi capaz de mudar as configurações de medição depois que um par emaranhado deixou sua fonte, de modo que a configuração que existia quando eles foram emitidos não poderia afetar o resultado. 

Usando ferramentas refinadas e uma longa série de experimentos, Anton Zeilinger começou a usar estados quânticos emaranhados. Entre outras coisas, seu grupo de pesquisa demonstrou um fenômeno chamado teletransporte quântico, que possibilita mover um estado quântico de uma partícula para outra à distância.

Estados quânticos emaranhados têm potencial para novas formas de armazenamento, transferência e processamento de informações.

Coisas interessantes acontecem se as partículas em um par emaranhado viajam em direções opostas e uma delas encontra uma terceira partícula de tal maneira que elas ficam emaranhadas. Então, elas entram em um novo estado compartilhado. A terceira partícula perde sua identidade, mas suas propriedades originais agora foram transferidas para a partícula do par original. Esta maneira de transferir um estado quântico desconhecido de uma partícula para outra é chamada de teletransporte quântico. Este tipo de experimento foi realizado pela primeira vez em 1997 por Anton Zeilinger e seus colegas.

Notavelmente, o teletransporte quântico é a única maneira de transferir informações quânticas de um sistema para outro sem perder nenhuma parte dele. É absolutamente impossível medir todas as propriedades de um sistema quântico e depois enviar a informação para um destinatário que queira reconstruir o sistema. Isto ocorre porque um sistema quântico pode conter várias versões de cada propriedade simultaneamente, onde cada versão tem uma certa probabilidade de aparecer durante uma medição. Assim que a medição é realizada, apenas uma versão permanece, ou seja, aquela que foi lida pelo instrumento de medição. As outras desapareceram e é impossível saber alguma coisa sobre elas. No entanto, propriedades quânticas totalmente desconhecidas podem ser transferidas usando o teletransporte quântico e aparecem intactas em outra partícula, mas ao preço de serem destruídas na partícula original.

Uma vez que isso foi demonstrado experimentalmente, o próximo passo foi usar dois pares de partículas emaranhadas. Se uma partícula de cada par for reunida de uma maneira particular, as partículas não perturbadas em cada par podem ficar emaranhadas, apesar de nunca terem estado em contato umas com as outras. Esta troca de emaranhamento foi demonstrada pela primeira vez em 1998 pelo grupo de pesquisa de Anton Zeilinger.

Pares de fótons emaranhados, partículas de luz, podem ser enviados em direções opostas através de fibras ópticas e funcionar como sinais em uma rede quântica. O emaranhamento entre dois pares torna possível estender as distâncias entre os nós em tal rede. Existe um limite para a distância que os fótons podem ser enviados através de uma fibra óptica antes de serem absorvidos ou perderem suas propriedades. Sinais de luz comuns podem ser amplificados ao longo do caminho, mas isso não funciona com pares emaranhados. Um amplificador tem que capturar e medir a luz, o que quebra o emaranhamento. No entanto, a troca de emaranhamento significa que é possível enviar o estado original ainda mais, transferindo-o por distâncias maiores do que seria possível.

Os estados quânticos emaranhados já foram demonstrados entre fótons que foram enviados através de dezenas de quilômetros de fibra óptica e entre um satélite e uma estação no solo. Em pouco tempo, pesquisadores de todo o mundo descobriram muitas novas maneiras de utilizar a propriedade mais poderosa da mecânica quântica.

A primeira revolução quântica nos forneceu transistores e lasers, mas agora estamos entrando em uma nova era graças às ferramentas contemporâneas para manipular sistemas de partículas emaranhadas.

Fonte: Royal Swedish Academy of Science

sábado, 20 de agosto de 2022

O próton contém um quark charm?

A descrição num livro didático sobre um próton diz que ele contém três partículas menores, dois quarks up e um quark down, mas uma nova análise encontrou fortes evidências de que ele também contém um quark charm.

© CERN (ilustração de um próton)

O próton, uma partícula encontrada no coração de cada átomo, parece ter uma estrutura mais complicada do que a tradicionalmente apresentada nos livros didáticos. A descoberta pode ter ramificações para experimentos de física de partículas sensíveis, como o Grande Colisor de Hádrons (LHC). 

Enquanto os prótons já foram considerados indivisíveis, experimentos com aceleradores de partículas na década de 1960 revelaram que eles continham três partículas menores, chamadas quarks. Os quarks possuem seis tipos, ou sabores: up, down, top, bottom, charm e strange. Eles geralmente se combinam em grupos de dois e três para formar hádrons, como os prótons e nêutrons que compõem os núcleos atômicos. Uma partícula subatômica composta por um quark e um antiquark de carga de cor oposta formam os mésons. Mais raramente, no entanto, eles também podem se combinar em partículas de quatro (tetraquarks) e cinco quarks (pentaquarks). Estes hádrons exóticos foram previstos por teóricos ao mesmo tempo que os hádrons convencionais, cerca de seis décadas atrás, mas apenas recentemente, nos últimos 20 anos, eles foram observados pelo LHCb e outros experimentos.

A colaboração internacional do LHCb observou, no mês passado, três partículas em decaimentos de mésons B nunca antes vistas: um novo tipo de pentaquark e o primeiro par de tetraquarks, que inclui um novo tipo de tetraquark. As descobertas, apresentadas num seminário do European Organization for Nuclear Research (CERN), adicionam três novos membros exóticos à crescente lista de novos hádrons encontrados no LHC. Eles ajudarão os físicos a entender melhor como os quarks se unem nestas partículas compostas.

Na mecânica quântica, a estrutura de uma partícula é governada por probabilidades, o que significa que teoricamente há uma chance de que outros quarks possam surgir dentro do próton na forma de pares matéria-antimatéria. Um experimento da European Muon Collaboration no CERN em 1980 sugeriu que o próton poderia conter um quark charm e seu equivalente de antimatéria, um anticharm, mas os resultados foram inconclusivos e muito debatidos. Houve outras tentativas de identificar o componente de charme do próton, mas diferentes grupos encontraram resultados conflitantes e tiveram dificuldade em separar os blocos de construção intrínsecos de um próton do ambiente de alta energia dos aceleradores de partículas, onde todo tipo de quark é criado e destruído em rápida sucessão.

Agora, Juan Rojo, da Vrije University Amsterdam, na Holanda, e seus colegas encontraram evidências de que uma pequena parte do momento do próton, cerca de 0,5%, vem do quark charm.

Para isolar o componente do quark charm, Rojo e sua equipe usaram um modelo de aprendizado de máquina para criar estruturas hipotéticas de prótons consistindo em todos os diferentes tipos de quarks e depois as compararam com mais de 500.000 colisões do mundo real de décadas de experimentos com aceleradores de partículas, incluindo no LHC. 

Os pesquisadores descobriram que, se o próton não contiver um par de quarks charm-anticharm, há apenas 0,3% de chance de ver os resultados que examinaram. Este resultado significa 3-sigma, que normalmente é visto como um sinal potencial de algo interessante. Mais trabalho é necessário para aumentar os resultados para o nível de 5-sigma, o que significa cerca de 1 em 3,5 milhões de chance de um resultado por acaso, que é tradicionalmente o limite para uma descoberta.

A equipe analisou os resultados recentes do experimento LHCb Z-boson e modelou a distribuição estatística do momento do próton com e sem um quark charm. Eles descobriram que o modelo combinava melhor com os resultados se o próton fosse assumido como tendo um quark charm. Isso significa que eles estão mais confiantes em propor a presença de um quark charm do que o nível sigma por si só sugere. 

Dada a onipresença desta partícula e há quanto tempo a conhecemos, ainda há muito que não entendemos sobre sua subestrutura. O observatório de neutrinos IceCube na Antártida, que procura neutrinos raros produzidos quando raios cósmicos atingem partículas na atmosfera da Terra, também pode precisar levar em conta esta nova estrutura. A probabilidade de um raio cósmico impactar um núcleo atmosférico e produzir neutrinos é bastante sensível a presença de um quark charm do próton.

Um artigo foi publicado na revista Nature

Fonte: New Scientist

terça-feira, 5 de outubro de 2021

Nobel de Física: Clima e Sistemas Complexos

O prêmio Nobel de Física de 2021 foi concedido para pesquisa de sistemas complexos, especialmente para predição do aquecimento global.

© Johan Jarnestad (ilustração da influência climática na Terra)

A Academia Real das Ciências da Suécia anunciou os ganhadores Syukuro Manabe, da Universidade de Princeton, EUA, Klaus Hasselmann, do Instituto Max Planck para Meteorologia, Alemanha, e Giorgio Parisi, da Universidade de Roma, Itália.

Syukuro Manabe e Klaus Hasselmann estabeleceram a base de nosso conhecimento sobre o clima da Terra e como a humanidade o influencia. Giorgio Parisi é recompensado por suas contribuições revolucionárias à teoria de materiais desordenados e processos aleatórios. 

Os sistemas complexos são caracterizados pela aleatoriedade e desordem e são difíceis de entender. O prêmio deste ano reconhece novos métodos para descrevê-los e prever seu comportamento a longo prazo. Um sistema complexo de vital importância para a humanidade é o clima da Terra. 

Syukuro Manabe demonstrou como o aumento dos níveis de dióxido de carbono na atmosfera leva ao aumento da temperatura na superfície da Terra. Na década de 1960, ele liderou o desenvolvimento de modelos físicos do clima da Terra e foi a primeira pessoa a explorar a interação entre o balanço de radiação e o transporte vertical de massas de ar. Seu trabalho lançou as bases para o desenvolvimento dos modelos climáticos atuais. 

Cerca de dez anos depois, Klaus Hasselmann criou um modelo que liga o tempo e o clima, demonstrando que os modelos climáticos podem ser confiáveis apesar do tempo ser mutável e caótico. Ele também desenvolveu métodos para identificar sinais específicos, impressões digitais, que os fenômenos naturais e as atividades humanas imprimem no clima. Seus métodos têm sido usados para provar que o aumento da temperatura na atmosfera é devido às emissões humanas de dióxido de carbono.

Duzentos anos atrás, o físico francês Joseph Fourier estudou o equilíbrio de energia entre a radiação do Sol em direção ao solo e a radiação emanada do solo. Ele entendeu a função da atmosfera neste equilíbrio; na superfície da Terra, a radiação solar incidente é transformada em radiação de corpo negro que é absorvida pela atmosfera, aquecendo-a. A atmosfera bloqueia esta radiação, caracterizando o efeito estufa. Este nome vem de sua semelhança com o vidro numa estufa, que permitem passar os raios solares, mas retêm o calor no interior, gerando aquecimento. 

No entanto, os processos radioativos na atmosfera são muito mais complicados. A tarefa é investigar o equilíbrio entre a radiação solar de onda curta vinda em direção ao nosso planeta e a radiação infravermelha de onda longa emitida da Terra. Os detalhes foram acrescentados por muitos cientistas do clima nos dois séculos seguintes. Os modelos climáticos contemporâneos são ferramentas incrivelmente poderosas, não só para compreender o clima, mas também para entender o aquecimento global pelo qual os humanos são responsáveis. Estes modelos são baseados nas leis da física e propriedades estatísticas, que foram desenvolvidos para prever o tempo, que é descrito por quantidades meteorológicas, como temperatura, precipitação, vento ou nuvens, e é afetado pelo que acontece nos oceanos e no solo. 

Os estudos modernos de sistemas complexos estão enraizados na mecânica estatística desenvolvida na segunda metade do século 19 por James C. Maxwell, Ludwig Boltzmann e J. Willard Gibbs, que nomeou este campo em 1884. A mecânica estatística evoluiu a partir de um novo tipo de método necessário para descrever sistemas, como gases ou líquidos, que consistem em um grande número de partículas. Este método teve que considerar os movimentos aleatórios das partículas, então a ideia básica era calcular o efeito médio das partículas em vez de estudar cada partícula individualmente. Por exemplo, a temperatura em um gás é uma medida do valor médio da energia das partículas do gás. 

A mecânica estatística fornece uma explicação microscópica para propriedades macroscópicas em gases e líquidos, como temperatura e pressão. As partículas em um gás podem ser consideradas como pequenas bolas se deslocando em velocidades que aumentam com a temperatura. Quando a temperatura cai ou a pressão aumenta, as bolas primeiro se condensam em um líquido e então em um sólido, que geralmente é um cristal. No entanto, se esta mudança acontecer rapidamente, as bolas podem formar um padrão irregular que não mude mesmo se o líquido for resfriado ou comprimido. Se o experimento for repetido, as bolas assumirão um novo padrão, apesar da mudança acontecer exatamente da mesma maneira. Por que os resultados são diferentes?

Por volta de 1980, Giorgio Parisi descobriu padrões ocultos em materiais complexos desordenados. Suas descobertas estão entre as contribuições mais importantes para a teoria dos sistemas complexos, da interação entre desordens e flutuações em sistemas físicos, de escalas atômicas até planetárias. Eles tornam possível compreender e descrever muitos materiais e fenômenos diferentes e aparentemente inteiramente aleatórios, não apenas na física, mas também em outras áreas muito diferentes, como matemática, biologia, neurociência e aprendizado de máquina. 

“As descobertas reconhecidas este ano demonstram que o nosso conhecimento sobre o clima assenta numa base científica sólida, baseada numa análise rigorosa das observações. Todos os laureados deste ano contribuíram para que obtivéssemos uma visão mais profunda das propriedades e da evolução de sistemas físicos complexos”, disse Thors Hans Hansson, presidente do Comitê Nobel de Física.

Fonte: Royal Swedish Academy of Sciences

sexta-feira, 17 de setembro de 2021

Descoberta partícula exótica de longa vida

O experimento LHCb (Large Hadron Collider beauty) no CERN (European Organization for Nuclear Research) apresentou uma nova descoberta na Conferência da Sociedade Física Europeia sobre Física de Altas Energias.

© CERN (tetraquark Tcc+)

A nova partícula descoberta pelo LHCb, rotulada como Tcc+, é um tetraquark, um hádron exótico contendo dois quarks e dois antiquarks. É a partícula de matéria exótica de vida mais longa já descoberta. 

Os quarks são os blocos de construção fundamentais a partir dos quais a matéria é construída. Eles se combinam para formar hádrons, ou seja, bárions, como o próton e o nêutron, que consistem em três quarks, e os mésons, que são formados como pares quark-antiquark. 

Nos últimos anos, vários dos chamados hádrons exóticos, partículas com quatro ou cinco quarks, em vez dos convencionais dois ou três, foram encontrados. A descoberta é de um hádron exótico particularmente único. A nova partícula contém dois quarks charm e um antiquark up e um antiquark down. Vários tetraquarks foram descobertos nos últimos anos (incluindo um com dois quarks charm e dois antiquarks charm), mas este é o primeiro que contém dois quarks charm, sem antiquarks charm para equilibrá-los.

Partículas contendo um quark charm e um antiquark charm têm “charmo culto”, o número quântico charm de toda a partícula é igual a zero. Aqui, o número quântico charm soma dois, portanto, tem o dobro de charm!

O conteúdo quark do Tcc+ possui outras características interessantes além de ser um charm aberto. É a primeira partícula a ser encontrada pertencente a uma classe de tetraquarks com dois quarks pesados e dois antiquarks leves. Estas partículas decaem ao se transformar em um par de mésons, cada um formado por um dos quarks pesados e um dos antiquarks leves.

De acordo com algumas previsões teóricas, a massa dos tetraquarks deste tipo deve ser muito próxima da soma das massas dos dois mésons. Tal proximidade em massa torna o decaimento “difícil”, resultando em uma vida útil mais longa da partícula e, de fato, a partícula Tcc+ é o hádron exótico de vida mais longa encontrado até hoje. 

A descoberta abre caminho para a busca por partículas mais pesadas do mesmo tipo, com um ou dois quarks charm substituídos por quarks bottom. A partícula com dois quarks bottom é especialmente interessante: de acordo com os cálculos, sua massa deveria ser menor que a soma das massas de qualquer par de mésons B. Isto tornaria o decaimento não apenas improvável, mas realmente proibido: a partícula não seria capaz de decair por meio da interação forte e teria que fazê-lo por meio da interação fraca, o que tornaria seu tempo de vida várias ordens de magnitude mais longo do que o de qualquer hádron exótico observado anteriormente. 

O novo tetraquark Tcc+ é um alvo atraente para estudos futuros. As partículas nas quais ele decai são comparativamente fáceis de detectar e, em combinação com a pequena quantidade de energia disponível no decaimento, isto leva a uma excelente precisão em sua massa e permite o estudo dos números quânticos desta partícula fascinante. Isto, por sua vez, pode fornecer um teste rigoroso para modelos teóricos existentes e pode até mesmo permitir que efeitos anteriormente inalcançáveis sejam sondados. 

Fonte: CERN

terça-feira, 31 de agosto de 2021

Gerando matéria colidindo partículas de luz

Dois experimentos realizados no laboratório Laboratório Nacional de Brookhaven, nos EUA, forneceram evidências definitivas para dois fenômenos da físicas previstos teoricamente há quase oitenta anos.

© Brookhaven National Laboratory (detector STAR do RHIC)

As descobertas foram feitas por meio de uma análise detalhada de mais de 6 mil pares de elétrons e pósitrons produzidos em colisões de partículas no acelerador de partículas Relativistic Heavy Ion Collider (RHIC). 

Em um primeiro experimento, cientistas provaram que pares de elétrons e pósitrons, partículas de matéria e antimatéria, podem ser criados diretamente pela colisão de fótons muito energéticos. Esta conversão da luz com muita energia em matéria é uma consequência direta da famosa equação E = mc^2 de Einstein, segundo a qual energia e matéria (ou massa) são intermutáveis. Por exemplo, usinas nucleares convertem regularmente matéria em energia. Agora, os cientistas converteram a energia da luz diretamente em matéria em uma única etapa. 

Já o segundo experimento mostrou pela primeira vez que a curvatura do caminho da luz que viaja através de um campo magnético no vácuo depende do modo como a luz é polarizada. Este desvio dependente da polarização, também conhecido como birrefringência, ocorre quando a luz viaja através de certos materiais. O efeito é semelhante à dupla refração dependente do comprimento de onda que divide a luz branca nas demais cores do espectro.

Para a realização de ambos os experimentos, as capacidades do detector STAR do RHIC , o Solenoid Tracker no RHIC, foram essenciais. O equipamento é capaz de medir a distribuição angular das partículas produzidas em colisões de íons numa velocidade próxima à da luz. 

No ano de 1934, os físicos Gregory Breit e John A. Wheeler descreveram a possibilidade hipotética de colidir partículas de luz para criar pares de elétrons e suas contrapartes de antimatéria, conhecidas como pósitrons. Eles já percebiam que isso era quase impossível de fazer. Mas Breit e Wheeler propuseram uma alternativa: acelerar íons pesados. E a alternativa deles é exatamente o que está sendo feito no RHIC.

Um íon de ouro, com 79 prótons, carrega uma poderosa carga positiva. Acelerar este íon a velocidades muito altas gera um poderoso campo magnético. Este gira em torno da partícula em alta velocidade enquanto ela viaja. É como uma corrente fluindo através de um fio. Se a velocidade for alta o suficiente, a força do campo magnético circular pode ser igual à força do campo elétrico perpendicular. E este arranjo de campos consiste no fóton, uma “partícula” quantizada de luz. Então, quando os íons estão se movendo perto da velocidade da luz, há um monte de fótons ao redor do núcleo de ouro. Eles o acompanham como uma nuvem.

No RHIC, os cientistas aceleram os íons de ouro a 99,995% da velocidade da luz em dois anéis aceleradores. Surgem duas nuvens de fótons movendo-se em direções opostas com energia e intensidade suficientes para que, quando os dois íons passem um pelo outro sem colidir, estes campos de fótons possam interagir. 

Os físicos do STAR rastrearam as interações e procuraram os pares elétron-pósitron previstos. Outros cientistas tentaram criar pares elétron-pósitron a partir de colisões de luz usando lasers poderosos, ou seja, feixes focalizados de luz intensa. Mas os fótons individuais dentro destes feixes intensos ainda não têm energia suficiente. 

Anteriormente, um experimento no SLAC National Accelerator Laboratory em 1997 foi bem-sucedido usando um processo não linear. Os cientistas primeiro tiveram que aumentar a energia dos fótons em um feixe de laser, para, em seguida, provocar uma colisão com um poderoso feixe de elétrons. Desta maneira, as colisões dos fótons energizados em um enorme campo eletromagnético criado por laser produziram matéria e antimatéria.

A capacidade do STAR de medir as minúsculas refrações duplas de elétrons e pósitrons, produzidas quase que consecutivamente nestes eventos, também possibilitou que os físicos estudassem como as partículas de luz interagem com os poderosos campos magnéticos gerados pelos íons acelerados. 

“A nuvem de fótons em torno dos íons de ouro em um dos feixes de RHIC dispara na direção do forte campo magnético circular produzido no outro feixe. Observar a distribuição das partículas que saem da nuvem mostra como a luz polarizada interage com o campo magnético. 

Werner Heisenberg e Hans Heinrich Euler, em 1936, e John Toll, na década de 1950, previram que um vácuo do espaço vazio poderia ser polarizado por um poderoso campo magnético. Este vácuo polarizado, então, deveria desviar os caminhos dos fótons dependendo da polarização destes. Toll, em sua tese, também detalhou como a absorção de luz por um campo magnético depende da polarização e de sua conexão com o índice de refração da luz no vácuo. Esta birrefringência foi observada em muitos tipos de cristais. Além disso, um recente relatório registrou a curvatura da luz proveniente de uma estrela de nêutrons. É provável que o fenômeno tenha acontecido devido a interações dessa luz com o campo magnético da estrela. Mas, até o momento, nenhum experimento com base na Terra havia conseguido detectar a ocorrência da birrefringência no vácuo.

No RHIC, os cientistas mediram como a polarização da luz afetava se a luz era “absorvida” pelo campo magnético. Isso é semelhante ao modo como os óculos de sol polarizados bloqueiam a passagem de certos raios se eles não corresponderem à polarização das lentes. No caso dos óculos de sol, além de vermos uma menor quantidade de luz passar, é possível, a princípio, medir um aumento na temperatura do material da lente à medida que ele absorve a energia da luz bloqueada.

No RHIC, a energia luminosa absorvida é o que cria os pares elétron-pósitron. Os produtos produzidos pelas interações fóton-fóton no RHIC, possibilita verificar que a distribuição angular dos produtos depende do ângulo de polarização da luz. Isso indica que a absorção da luz depende de sua polarização. 

Os resultados foram publicados no periódico Physical Review Letters.

Fonte: Scientific American

segunda-feira, 19 de julho de 2021

Efeito fotoelétrico aplicado em radioterapia

Pesquisadores descobriram que efeito fotoelétrico, explicado por Einstein em 1905, pode potencializar a destruição de tumores via radioterapia.

© U. de Kyoto (moléculas de iodo ajudam a destruir tumores)

A radioterapia é um dos principais tratamentos oncológicos hoje disponíveis. No entanto, ela sofre com um problema de eficácia. Para que a irradiação de raios X possa funcionar, é necessário que haja moléculas de oxigênio. Quando os raios X chegam ao interior da célula, eles induzem reações entre o oxigênio e o DNA que podem danificar o tumor, impedindo seu crescimento e multiplicação. Porém, na região central dos tumores, os níveis de oxigênio são baixos, devido à falta de vasos sanguíneos.

Há anos, cientistas do Instituto de Ciências Integradas de Material Celular da Universidade de Kyoto (iCeMS), junto a colaboradores japoneses e americanos, tentam superar este problema e encontrar maneiras mais diretas e eficazes de tratar o DNA de células de câncer empregando princípios da física quântica.

Em trabalhos anteriores, os pesquisadores mostraram que nanopartículas carregadas de gadolínio podem matar células cancerosas quando irradiadas com 50,25 keV de radiação síncrotron. Para realizar o estudo atual, eles projetaram nanopartículas orgânicas porosas contendo iodo. O iodo é mais barato do que o gadolínio e libera elétrons com níveis menores de energia. 

No experimento, os pesquisadores dispersaram suas nanopartículas sobre estruturas esféricas de tecido que continham células cancerosas. As estruturas esferoides foram depois submetidas à irradiação por raios X com intensidade de 33,2 keV durante 30 minutos. 

O iodo libera elétrons que rompem o DNA do tumor, levando à morte celular. O resultado foi a destruição completa dos tumores em três dias. Após fazerem experimentações sistemáticas nos níveis de energia, eles foram capazes de demonstrar que o efeito ideal de destruição do tumor ocorre com o raio X de 33,2 keV.

A exposição de um metal à luz leva à liberação de elétrons, um fenômeno chamado efeito fotoelétrico. Em 1905, Albert Einstein explicou este fenômeno, onde foi agraciado com o Prêmio Nobel pela descoberta. esta pesquisa fornece evidências que sugerem que é possível reproduzir este efeito dentro das células cancerosas.

Análises posteriores mostraram que as nanopartículas foram absorvidas pelas células tumorais. Com a quantidade certa de energia, o iodo liberou elétrons que causaram quebras na fita dupla no DNA nuclear e, assim provocaram a morte celular.

Este estudo é um exemplo importante de como um fenômeno da física quântica pode ser empregado dentro de uma célula cancerosa. Parece que uma nuvem de elétrons de baixa energia é gerada perto do DNA. Isto causa danos difíceis de serem reparados e leva à morte da célula.

Agora, a equipe buscará entender como os elétrons são liberados dos átomos de iodo após estes serem expostos aos raios X. Além disso, os pesquisadores querem inserir o iodo dentro do DNA, para aumentar a sua eficácia, e testar as nanopartículas em modelos de câncer em ratos. 

As recentes descobertas foram publicadas na revista Scientific Reports.

Fonte: Scientific American

quinta-feira, 1 de abril de 2021

Revelando novas partículas elementares

Após duas década de espera, que incluíram uma longa batalha para obter financiamento e uma mudança para o outro lado do continente, um experimento sobre múons está prestes a revelar seus resultados.

© Fermilab (experimento Muón g-2)

Estas são partículas semelhantes ao elétron, porém de maior massa e mais instáveis. Os físicos esperam que as mais recentes medidas sobre o magnetismo do múon confirme achados anteriores que podem levar à descoberta de novas partículas.

A divulgação da conclusões do estudo está prevista para o dia 7 de abril. A pesquisa, intitulada experimento Múon g–2, que agora acontece no Fermilab (Fermi National Accelerator Laboratory), um laboratório especializado em física de partículas de alta energia localizado nos EUA, já havia sido realizado anteriormente entre 1997 e 2001 no Laboratório Nacional de Brookhaven em Long Island, Nova York.

Os resultados originais, anunciados em 2001 e finalizados em 2006, geraram controvérsia entre os físicos. Eles revelaram que o momento magnético do múon, que indica o tamanho do campo magnético gerado, é levemente maior do que o previsto pela teoria. Caso estes resultados sejam confirmado, no anúncio da próxima semana ou em experimentos futuros, eles podem revelar a existência de novas partículas elementares.

O experimento Múon g–2 consegue medir o momento magnético da partícula ao promover sua movimentação em um círculo de 15 metros de diâmetro. Um imã poderoso mantém os múons em sua rota circular, ao mesmo tempo em que causa a rotação de seus polos magnéticos. Quanto maior for o momento magnético da partícula, mais rápido ela irá rodar, como um pião em precessão.

A discrepância em relação à teoria encontrada pelo experimento original era pequena. À primeira vista, a física quântica prevê que partículas elementares, como o múon e o elétron, possuem um momento magnético exatamente igual a 2 (a unidade de medida depende da partícula). No entanto, cálculos mais completos revelam variações deste valor, já que o espaço vazio jamais está completamente vazio. O espaço em volta do múon contém uma diversidade de partículas virtuais, versões efêmeras de partículas reais que aparecem e desaparecem continuamente, algo que altera o campo magnético do múon. 

Desta maneira, quanto maior for a variedades das partículas, maior será o impacto de suas versões virtuais no momento magnético. Isto significa que uma medição de alta precisão pode revelar evidências indiretas da existência de novas partículas, anteriormente desconhecidas aos cientistas. 

O momento magnético obtido é apenas levemente diferente de 2. Esta diferença é o que chamada g–2 . Em Brookhaven, os físicos descobriram que g–2 é igual a 0.0023318319. À época, este valor era maior do que a estimativa da contribuição das partículas virtuais conhecidas. A precisão da medição não era alta o suficiente para permitir que se afirmasse, com confiança, que a discrepância era real. Os resultados também vieram em um momento em que o campo parecia pronto para um período de descobertas explosivas.

O Grande Colisor de Hádrons (LHC) estava em construção na fronteira entre a Suíça e a França, e os teóricos acreditavam que ele descobriria um grande número de novas partículas. Mas, além da histórica descoberta do bóson de Higgs em 2012, o LHC não encontrou nenhuma outra partícula elementar. Além disso, seus dados descartaram muitos candidatos potenciais para partículas virtuais que poderiam ter inflado o momento magnético do múon. O LHC, no entanto, não descartou todas as explicações possíveis para a discrepância. Dentre estas explicações, está a de que não exista apenas um tipo de bósons de Higgs, e sim pelo menos dois.

Na ocasião do experimento de Brookhaven, o valor experimental para o momento magnético do múon teve que ser comparado com as previsões teóricas que vieram com incertezas relativamente grandes. Mas enquanto a melhor medição experimental de g–2 não mudou em 15 anos, a teoria evoluiu. 

No ano passado, uma grande colaboração, reuniu várias equipes de pesquisadores, cada um especializado em um tipo de partícula virtual, e publicou um valor de “consenso” para a constante fundamental. A discrepância entre os valores teóricos e experimentais não mudou. Também no ano passado, uma equipe chamada Colaboração Budapest-Marseille-Wuppertal sugeria um valor teórico para g-2 mais próximo do experimental. Ela se concentrou em uma fonte de incerteza na teoria, proveniente de versões virtuais de glúons, partículas transmissoras de força nuclear forte. Se seus resultados estiverem corretos, a lacuna entre a teoria e o experimento pode acabar não existindo. 

Os resultados podem não resolver a questão ainda. Graças a atualizações no aparelho, a equipe espera melhorar a precisão do g-2 em quatro vezes, em comparação com o experimento de Brookhaven. Mas, até agora, analisou apenas um ano dos dados coletados desde 2017, não o suficiente para que a margem de erro seja mais estreita. Ainda assim, se a medição for muito parecida com a original, a confiança neste resultado vai melhorar. Se o Fermilab finalmente confirmar a surpresa de Brookhaven, a comunidade científica provavelmente exigirá outra confirmação independente. Isso poderia vir de uma técnica desenvolvida no Complexo de Pesquisa do Acelerador de Prótons do Japão (J-PARC), que mede o momento magnético do múon de modo radicalmente diferente.

Fonte: Scientific American

sábado, 13 de fevereiro de 2021

Partículas fundamentais ainda desconhecidas

Um experimento revelou um inesperado comportamento quântico em um material isolante, e pode indicar a existência de uma nova classe de partículas ainda desconhecida.

© Princeton University (isolador de ditelureto de tungstênio)

O fenômeno quântico em questão é conhecido como oscilação quântica, e foi observado em um corpo isolador feito de um material chamado de ditelureto de tungstênio. A teoria quântica atualmente aceita diz que materiais isoladores não poderiam apresentar nenhuma forma de comportamento quântico. Em geral, esta oscilação pode ser observada em metais.

“Se nossas interpretações estiverem corretas, estamos vendo uma forma fundamentalmente nova de matéria quântica,” diz Sanfeng Wu, professor assistente de física na Universidade Princeton. “Estamos agora ponderando que pode existir um mundo quântico inteiramente novo, escondido nos isoladores. É possível que tenhamos deixado de notar isso durante as últimas décadas.” 

Durante muito tempo, a possibilidade de observar oscilações quânticas foi considerada como uma característica que distinguia metais e isoladores. Nos metais, os elétrons apresentam elevada mobilidade, e a resistividade do material, isto é, a resistência à corrente elétrica, é fraca. Quase um século atrás, os pesquisadores observaram que a combinação de baixas temperaturas com um campo magnético pode fazer com que os elétrons passem de um estado “clássico” para um estado quântico, causando oscilações na resistividade do metal. 

Já nos corpos capazes de agir como isoladores os elétrons não conseguem se deslocar, pois os materiais de que são feitos possuem uma resistividade muito alta. As experiências sugeriam que não era possível ocorrer oscilações quânticas neles, não importando a intensidade de campo magnético aplicado. 

A descoberta foi feita quando os pesquisadores estudavam o material ditelureto de tungstênio, que eles manipularam de modo a formar um corpo bidimensional. O material foi preparado utilizando-se uma fita adesiva padrão de forma a conseguir raspar cada vez mais o objeto, buscando moldar o que é chamado de monocamada, que nada mais é do que uma camada única e muito fina, feita de átomos. 

Os pesquisadores constataram que quando o ditelureto de tungstênio é manipulado para um formato um pouco mais espesso, ele se comporta como um metal. Mas, assim que é reduzido a uma monocamada, ele apresenta uma poderosa capacidade de agir como isolante. 

Os pesquisadores então começaram a medir a resistividade da monocamada de ditelureto de tungstênio sob campos magnéticos. E se surpreenderam ao constatar que a resistividade do isolador, apesar de muito grande, começou a oscilar quando o campo magnético aumentava, indicando a mudança para o estado quântico, ou seja, o material, um isolador muito poderoso, passou a exibir a propriedade quântica mais característica de um metal.

Atualmente não existem teorias para explicar esse fenômeno. Wu e seus colegas apresentaram uma hipótese provocativa. Eles sugerem que o experimento fez com que os elétrons se organizassem, e destas interações estariam surgindo novas partículas, que nomearam como “férmions neutros”, por não possuírem carga elétrica. Seriam estas partículas as responsáveis por criar esse efeito quântico altamente notável. 

Férmion é o nome dado a uma categoria de partículas na qual estão incluídos os elétrons. Nos materiais com propriedades quânticas, os férmions podem ser tanto elétrons, dotados de carga negativa, ou “buracos” dotados de carga positiva responsáveis pela condução da corrente elétrica. Isto é, quando o material é um isolador elétrico, estes férmions carregados não conseguem se mover livremente. 

Entretanto, partículas que sejam neutras poderiam teoricamente existir em um isolador e se deslocar através dele. Os resultados experimentais conflitam com todas as teorias atuais que se baseiam na existência de férmions dotados de carga, mas poderiam ser explicados pela presença de férmions sem carga. 

A equipe de Princeton planeja novas investigações sobre as propriedades quânticas do ditelureto de tungstênio. Eles estão interessados especialmente em determinar se a hipotética existência de uma nova partícula é válida.

A descoberta foi apresentada na revista Nature.

Fonte: Scientific American

terça-feira, 6 de outubro de 2020

Buracos negros e o centro da Via Láctea

O Prêmio Nobel de Física de 2020 foi concedido a três pesquisadores que fizeram descobertas sobre buracos negros, anunciou hoje a Academia Real das Ciências da Suécia.


© NASA (ilustração de região próxima de um buraco negro)

Roger Penrose, da Universidade de Oxford vai receber metade do prêmio de 10 milhões de coroas suecas (6,2 milhões de reais) por ter provado, em 1965, que a teoria geral da relatividade leva à formação de buracos negros. A outra metade da premiação foi concedida ao alemão Reinhard Genzel e à americana Andrea Ghez, que lideraram dois grupos de astrônomos na descoberta de um objeto invisível e extremamente pesado que governa as órbitas das estrelas no centro de nossa galáxia. Um buraco negro supermassivo é a única explicação atualmente conhecida.

O cientista Roger Penrose usou métodos matemáticos engenhosos para provar que os buracos negros são uma consequência direta da teoria geral da relatividade de Albert Einstein. O próprio Einstein não acreditava que buracos negros realmente existissem, estes monstros supermassivos ​​que capturam tudo que entra neles. Nada pode escapar, nem mesmo a luz.

Em janeiro de 1965, dez anos após a morte de Einstein, Roger Penrose provou que os buracos negros realmente podem se formar e os descreveu em detalhes; no fundo, os buracos negros escondem uma singularidade em que cessam todas as leis conhecidas da natureza. Seu artigo inovador ainda é considerado a contribuição mais importante para a teoria geral da relatividade desde Einstein.

Reinhard Genzel, diretor do Instituto Max Planck de Física Extraterrestre, na Alemanha, e professor da Universidade da Califórnia, nos EUA, e Andrea Ghez, professora da Universidade da Califórnia, lideram dois grupos de astrônomos que, desde o início dos anos 1990, se concentra em estudar uma região no centro da Via Láctea, onde está localizado o buraco negro supermassivo, denominado Sagitário A*.


© UCLA (animação de estrelas girando ao redor de buraco negro)

Uma animação das órbitas estelares no centro de 0,5 segundos de arco. Imagens tiradas dos anos de 1995 a 2016 são usadas para rastrear estrelas específicas orbitando o buraco negro proposto no centro da Galáxia. Estas órbitas, Aplicando as Leis de Kepler, estas órbitas fornecem a melhor evidência de um buraco negro supermassivo. Especialmente importante é a estrela S0-2, pois foi observada por mais de um período orbital completo, que é de apenas 16,17 anos. Veja também a notícia: Estrela "dançando" em torno de buraco negro supermassivo.

Usando os maiores telescópios do mundo, Genzel e Ghez desenvolveram métodos para ver através das enormes nuvens de gás interestelar e poeira até o centro da Via Láctea. Estendendo os limites da tecnologia, eles refinaram novas técnicas para compensar as distorções causadas pela atmosfera da Terra, construindo instrumentos exclusivos e se comprometendo com pesquisas de longo prazo. Seu trabalho pioneiro nos deu a evidência mais convincente de um buraco negro supermassivo no centro da Via Láctea.

Desta maneira foi possível mapear as órbitas das estrelas mais brilhantes próximas ao centro da nossa Galáxia e encontraram um objeto invisível extremamente pesado que puxa este amontoado de estrelas, fazendo-as orbitar em velocidades vertiginosas. Cerca de quatro milhões de massas solares estão reunidas em uma região não maior do que nosso Sistema Solar.

“As descobertas dos laureados deste ano abriram novos caminhos no estudo de objetos compactos e supermassivos. Mas estes objetos exóticos ainda colocam muitas questões que imploram por respostas e motivam pesquisas futuras. Não apenas perguntas sobre sua estrutura interna, mas também perguntas sobre como testar nossa teoria da gravidade sob as condições extremas nas imediações de um buraco negro”, disse David Haviland, presidente do Comitê Nobel de Física.

Fonte: The Royal Swedish Academy of Sciences

terça-feira, 4 de agosto de 2020

Bóson de Higgs decai em dois múons

Na 40ª conferência do International Conference on High Energy Physics (ICHEP), os experimentos do ATLAS (A Toroidal LHC ApparatuS) e CMS (Compact Muon Solenoid) anunciaram novos resultados que mostram que o bóson de Higgs se decompõe em dois múons.


© CMS (decaimento do bóson de Higgs gerando dois múons) 

O múon é uma cópia mais pesada do elétron, com carga elétrica -1 e spin 1⁄2, uma das partículas elementares que constituem o conteúdo de matéria do Universo. Enquanto os elétrons são classificados como uma partícula de primeira geração, os múons pertencem à segunda geração. O processo físico do bóson de Higgs decaindo em múons é um fenômeno raro, pois apenas um bóson de Higgs em 5.000 decai em múons. Esses novos resultados têm extrema importância para a física fundamental, porque indicam pela primeira vez que o bóson de Higgs interage com partículas elementares de segunda geração.

Os físicos do CERN estudam o bóson de Higgs desde a sua descoberta em 2012, a fim de investigar as propriedades dessa partícula muito especial. O bóson de Higgs, produzido a partir de colisões de prótons no Large Hadron Collider (LHC), se desintegra, conhecido como decaimento, quase instantaneamente em outras partículas. Um dos principais métodos de estudo das propriedades do bóson de Higgs é analisando como ele se decompõe nas várias partículas fundamentais e na taxa de desintegração.

O CMS obteve evidência desse decaimento com 3 sigma, o que significa que a chance de ver o bóson de Higgs decaindo em um par de múons devido à flutuação estatística é menor que um em 700. O resultado de dois sigma do ATLAS significa que as chances são de um em 40. A combinação de ambos os resultados aumentaria a significância bem acima de 3 sigma e fornece fortes evidências para a deterioração do bóson de Higgs em dois múons, de acordo com a previsão do Modelo Padrão.

O bóson de Higgs é a manifestação quântica do campo de Higgs, que dá massa às partículas elementares com as quais ele interage, através do mecanismo de Brout-Englert-Higgs. Ao medir a taxa na qual o bóson de Higgs decai em diferentes partículas, é possível inferir a força de sua interação com o campo de Higgs: quanto maior a taxa de decaimento em uma determinada partícula, maior a sua interação com o campo. Até agora, as experiências ATLAS e CMS observaram o decaimento do bóson de Higgs em diferentes tipos de bósons, como W e Z, e férmions mais pesados, como o lépton tau e os quarks top e bottom. A interação com os quarks mais pesados, superior e inferior, foi medida em 2018. Os múons são muito mais leves em comparação e sua interação com o campo de Higgs é mais fraca. Portanto, as interações entre o bóson de Higgs e os múons não haviam sido vistas anteriormente no LHC.

O que torna esses estudos ainda mais desafiadores é que, no LHC, para cada bóson de Higgs previsto decaindo em dois múons, existem milhares de pares de múons produzidos por outros processos que imitam a assinatura experimental esperada. A assinatura característica do decaimento do bóson de Higgs para os múons é um pequeno excesso de eventos que se agrupam perto de uma massa de 125 GeV, que é a massa do bóson de Higgs. Isolar as interações entre o bóson de Higgs e o par de múons não é tarefa fácil. Para isso, os dois experimentos medem a energia, o momento e os ângulos dos candidatos a múons no decaimento do bóson de Higgs. Além disso, a sensibilidade das análises foi aprimorada por métodos como estratégias sofisticadas de modelagem de segundo plano e outras técnicas avançadas, como algoritmos de aprendizado de máquina. O CMS combinou quatro análises separadas, cada uma otimizada para categorizar eventos físicos com possíveis sinais de um modo de produção de bóson de Higgs específico. A ATLAS dividiu seus eventos em 20 categorias direcionadas a modos específicos de produção do bóson de Higgs.

Os resultados, até agora consistentes com as previsões do Modelo Padrão, usaram o conjunto completo de dados coletados na segunda execução do LHC. Com mais dados a serem gravados da próxima corrida do acelerador de partículas e com o LHC de alta luminosidade, as colaborações do ATLAS e do CMS esperam atingir a sensibilidade (5 sigma) necessária para estabelecer a descoberta do decaimento do bóson de Higgs para dois múons e restringir possíveis teorias da física além do modelo padrão que afetariam esse modo de decaimento do bóson de Higgs.

Fonte: CERN