terça-feira, 8 de outubro de 2024

Pioneiros da Inteligência Artificial

Os professores John J. Hopfield, da Universidade de Princeton, nos Estados Unidos, e Geoffrey E. Hinton, da Universidade de Toronto, no Canadá, ganharam o Prêmio Nobel de Física deste ano.

© Revista Física (ilustração de uma rede neural)

Os cientistas foram responsáveis pela pesquisa sobre o aprendizado de máquina com redes neurais artificiais. Essas redes são essenciais para o desenvolvimento da inteligência artificial (IA), permitindo que computadores realizem tarefas complexas de maneira similar ao cérebro humano. 

Geoffrey Hinton nasceu em 6 de dezembro de 1947, em Londres, Reino Unido. Ele é pesquisador vinculado à Universidade de Toronto (Canadá) e atuou como consultor no Google. Em 2023, ele pediu demissão da empresa e alertou sobre os riscos da IA para a humanidade. Hinton é um dos pioneiros no campo da inteligência artificial, sendo reconhecido por suas contribuições que revolucionaram o reconhecimento de fala e a classificação de imagens. Ao longo de sua carreira, recebeu prêmios importantes, como o Prêmio Turing, considerado o "Nobel da Computação". 

John Hopfield nasceu em 15 de julho de 1933, em Chicago, EUA. Ele é professor emérito da Universidade de Princeton, em Nova Jersey (EUA), e é amplamente conhecido por suas contribuições à neurobiologia e à física teórica. Hopfield desenvolveu um modelo de rede neural que simula o funcionamento do cérebro de seres humanos, permitindo o armazenamento e processamento de informações. Sua pesquisa lhe rendeu prêmios como a Medalha Dirac e o Prêmio Albert Einstein. 

A Academia Sueca de Ciências, em Estocolmo, afirmou que Hopfield e Hinton levaram o prêmio por suas contribuições fundamentais para a criação de métodos que são a base das chamadas redes neurais artificiais usadas hoje. Hopfield desenvolveu uma estrutura capaz de armazenar e reconstruir informações (as redes de Hopfield), enquanto Hinton inventou um sistema que identifica padrões em dados de forma autônoma, dois estudos essenciais para o avanço da IA. 

Nos anos 80, o norte-americano, que antes se dedicava a problemas teóricos de biologia molecular, voltou sua atenção para o estudo do cérebro humano e propôs a rede que consegue armazenar padrões e recuperá-los quando apresentados de forma incompleta. Dessa forma, ele criou o que chamamos de "memória associativa", onde uma rede neural artificial, de forma semelhante aos neurônios do cérebro humano, pode reconstruir dados mesmo que estejam parcialmente apagados ou distorcidos. Hinton, por sua vez, ampliou essas ideias, aplicando conceitos da física estatística criando uma tecnologia que consegue identificar padrões, não por instruções diretas, mas após ser alimentada com exemplos. Na prática, isso quer dizer que o sistema pode reconhecer novos elementos com base nas características que aprendeu em dados anteriores, podendo resolver problemas complexos que seriam impossíveis de serem geridos apenas por instruções passo a passo. A identificação de objetos em uma imagem é um exemplo disso, algo que requer uma compreensão mais profunda e dinâmica. 

A física estatística descreve sistemas que são compostos de muitos elementos semelhantes, como moléculas em um gás. É difícil, ou impossível, rastrear todas as moléculas separadas no gás, mas é possível considerá-las coletivamente para determinar as propriedades abrangentes do gás, como pressão ou temperatura. Existem muitas maneiras potenciais para as moléculas de gás se espalharem por seu volume em velocidades individuais e ainda resultarem nas mesmas propriedades coletivas. Os estados em que os componentes individuais podem existir em conjunto podem ser analisados usando física estatística, e a probabilidade de eles ocorrerem calculada. Alguns estados são mais prováveis do que outros; isso depende da quantidade de energia disponível, que é descrita em uma equação do físico do século XIX Ludwig Boltzmann. A rede de Hinton utilizou essa equação, e o método foi publicado em 1985 sob o nome marcante de máquina de Boltzmann. 

A máquina de Boltzmann é comumente usada com dois tipos diferentes de nós. As informações são alimentadas para um grupo, que são chamados de nós visíveis. Os outros nós formam uma camada oculta. Os valores e conexões dos nós ocultos também contribuem para a energia da rede como um todo. A máquina é executada aplicando uma regra para atualizar os valores dos nós um de cada vez. Eventualmente, a máquina entrará em um estado no qual o padrão dos nós pode mudar, mas as propriedades da rede como um todo permanecem as mesmas. Cada padrão possível terá então uma probabilidade específica que é determinada pela energia da rede de acordo com a equação de Boltzmann. Quando a máquina para, ela cria um novo padrão, o que torna a máquina de Boltzmann um exemplo inicial de um modelo generativo. A máquina de Boltzmann pode aprender, não a partir de instruções, mas a partir de exemplos fornecidos. Ela é treinada atualizando os valores nas conexões da rede para que os padrões de exemplo, que foram alimentados aos nós visíveis quando ela foi treinada, tenham a maior probabilidade possível de ocorrer quando a máquina for executada. Se o mesmo padrão for repetido várias vezes durante esse treinamento, a probabilidade desse padrão será ainda maior. O treinamento também afeta a probabilidade de produzir novos padrões que se assemelham aos exemplos nos quais a máquina foi treinada.

Uma máquina de Boltzmann treinada pode reconhecer características familiares em informações que não viu anteriormente. Em sua forma original, a máquina de Boltzmann é bastante ineficiente e leva muito tempo para encontrar soluções. As coisas se tornam mais interessantes quando ela é desenvolvida de várias maneiras, que Hinton continuou explorarando. Versões posteriores foram reduzidas, pois as conexões entre algumas das unidades foram removidas. Acontece que isso pode tornar a máquina mais eficiente. Durante a década de 1990, muitos pesquisadores perderam o interesse em redes neurais artificiais, mas Hinton foi um dos que continuaram a trabalhar na área. Ele também ajudou a iniciar a nova explosão de resultados emocionantes; em 2006, ele e seus colegas Simon Osindero, Yee Whye Teh e Ruslan Salakhutdinov desenvolveram um método para pré-treinar uma rede com uma série de máquinas de Boltzmann em camadas, uma sobre a outra. Esse pré-treinamento deu às conexões na rede um melhor ponto de partida, o que otimizou seu treinamento para reconhecer elementos em imagens. 

Muitos pesquisadores estão agora desenvolvendo áreas de aplicação do aprendizado de máquina. Qual será o mais viável ainda está para ser visto, enquanto também há uma ampla discussão sobre as questões éticas que cercam o desenvolvimento e o uso dessa tecnologia. Como a física contribuiu com ferramentas para o desenvolvimento do aprendizado de máquina, é interessante ver como ela também está se beneficiando de redes neurais artificiais. 

O aprendizado de máquina tem sido usado há muito tempo em áreas da ciências. Isso inclui o uso de aprendizado de máquina para peneirar e processar as vastas quantidades de dados necessárias para descobrir a partícula de Higgs. Outras aplicações incluem a redução de ruído em medições de ondas gravitacionais de buracos negros em colisão ou a busca por exoplanetas. 

Nos últimos anos, essa tecnologia também começou a ser usada ao calcular e prever as propriedades de moléculas e materiais; como calcular a estrutura de moléculas de proteína, que determina sua função, ou descobrir quais novas versões de um material podem ter as melhores propriedades para uso em células solares mais eficientes. 

Fonte: Royal Swedish Academy of Sciences

sábado, 6 de abril de 2024

Termodinâmica e a expansão do Universo

A mudança de um regime de expansão desacelerada (na era dominada pela radiação e pela matéria) para um regime de expansão acelerada (na era dominada pela energia escura) se assemelharia a uma transição de fase termodinâmica.

© Revista Física (expansão térmica do Universo)

A ideia da expansão do Universo tem já quase um século. A proposição de que as galáxias distantes estão se afastando da Terra e de que a velocidade de afastamento cresce com a distância foi teorizada pelo belga Georges Lemaître (1894-1966) em 1927 e confirmada observacionalmente pelo norte-americano Edwin Hubble (1889-1953) dois anos depois. Tal confirmação foi proporcionada pelo redshift (desvio para o vermelho) do espectro da radiação eletromagnética recebida desses objetos longínquos. 

Em 1998, um novo e surpreendente ingrediente foi acrescentado ao modelo. Um conjunto de observações de estrelas supernovas muito distantes, realizadas pelo Supernova Cosmology Project e pelo High-Z Supernova Search Team, mostraram que a expansão do Universo estava se acelerando, e não sendo retardada por efeito gravitacional como se supunha. Essa descoberta levou ao conceito de energia escura, que supõe-se contribuir com mais de 68% da energia total do Universo observável atual, enquanto a matéria escura e a matéria comum contribuem com 26% e 5%, aproximadamente.

“Medidas de redshift apontam para uma expansão acelerada adiabática [isto é, sem troca de calor] e anisotrópica [que não é a mesma em todas as direções]”, diz Mariano de Souza, professor do Departamento de Física do Instituto de Geociências e Ciências Exatas da Universidade Estadual Paulista (Unesp), campus de Rio Claro. E prossegue: “Conceitos fundamentais da termodinâmica permitem inferir que toda expansão adiabática é acompanhada de um resfriamento, no efeito barocalórico [capaz de gerar calor quando submetido a pressão] que é quantificado pela chamada razão de Grüneisen.” 

Em 1908, o físico alemão Eduard August Grüneisen (1877-1949) propôs uma expressão matemática para o denominado parâmetro de Grüneisen efetivo, Γeff, que relaciona três propriedades físicas de um material: o coeficiente de expansão térmica, o calor específico e a compressibilidade isotérmica. Quase um século depois, em 2003, Lijun Zhu e colaboradores demonstraram que a parte singular de Γeff, chamada “razão de Grüneisen”, definida como a razão entre o coeficiente de expansão térmica e o calor específico, aumenta expressivamente nas vizinhanças de um ponto crítico quântico devido ao acúmulo de entropia. 

Em 2010, Mariano de Souza e colaboradores demonstraram que o mesmo ocorre para um ponto crítico a temperatura finita. Os pesquisadores da Unesp liderados por Souza utilizaram o parâmetro de Grüneisen para descrever aspectos intricados relacionados à expansão do Universo. 

“A dinâmica associada à expansão do Universo é geralmente descrita pelo modelo de um fluído perfeito, cuja equação de estado é dada por ω = p/ρ, onde ω é o chamado parâmetro da equação de estado, p a pressão e ρ a densidade de energia. Embora amplamente utilizado, o significado físico de ω ainda não havia sido discutido de forma apropriada. Ou seja, ω era tratado apenas como uma constante para cada era do Universo. Um dos resultados importantes de nosso trabalho é a identificação de ω com o parâmetro de Grüneisen efetivo, por meio da equação de estado de Mie-Grüneisen”, explica Souza. 

Os pesquisadores demonstraram, utilizando o parâmetro de Grüneisen, que o contínuo resfriamento do Universo está associado a um efeito barocalórico, isto é, que relaciona pressão e temperatura. Tal efeito, por sua vez, ocorre devido à expansão adiabática do Universo. Sob essa perspectiva, propuseram que, na era dominada pela energia escura, na qual atualmente nos encontramos, o parâmetro de Grüneisen depende do tempo. Um dos aspectos interessantes desse trabalho é que utiliza conceitos da termodinâmica e da física do estado sólido, como stress (tensão) e strain (deformação), para descrever a expansão anisotrópica do Universo. “Demonstramos que o parâmetro de Grüneisen está naturalmente incluído no tensor de stress energia-momento presente nas celebradas equações de campo de Einstein, o que proporciona uma nova maneira de se investigar efeitos anisotrópicos associados à expansão do Universo. 

Estes não excluem o cenário de um possível Big Rip. A hipótese do Big Rip (Grande Ruptura) foi apresentada pela primeira vez em 2003, em artigo publicado no periódico Physical Review Letters. Ela diz que, se a quantidade de energia escura for suficiente para acelerar a expansão do Universo além de uma velocidade crítica, isso poderá causar uma ruptura no “tecido” do espaço-tempo. 

Ainda sob a perspectiva do parâmetro de Grüneisen, os pesquisadores conjecturam que a mudança de um regime de expansão se assemelha a uma transição de fase termodinâmica. Isso porque que Γeff muda de sinal quando a expansão do Universo muda de desacelerada para acelerada. Tal mudança de sinal de assemelha-se à assinatura típica de transições de fase na física da matéria condensada. 

Como se sabe, a energia escura foi associada à constante cosmológica Λ [lambda]. Primeiro postulada e depois rejeitada por Einstein, a constante cosmológica foi reabilitada quando se descobriu que a expansão do Universo estava acelerando em vez de desacelerar. O modelo hegemônico, chamado de Λ-CMD(Lambda-Cold Dark Matter), confere à constante cosmológica um valor fixo. Isto é, supõe que a densidade da energia escura se mantenha constante à medida que o Universo expande. Mas existem outros modelos que assumem que densidade da energia escura, e consequentemente Λ, variem no tempo.

“Atribuir um valor fixo para Λ equivale a atribuir também um valor fixo para ω. Mas o reconhecimento de ω como o parâmetro de Grüneisen efetivo permite inferir uma dependência temporal de ω à medida que o Universo expande na era dominada pela energia escura. E isso implica diretamente em uma dependência temporal de Λ ou da constante universal de gravitação”, sublinha Souza. 

O estudo, como se percebe, abre uma nova via de interpretação da expansão do Universo sob a luz da termodinâmica e de conceitos da física da matéria condensada e pode vir a ter importantes desdobramentos.

Um artigo foi publicado no periódico Results in Physics

Fonte: Revista FAPESP

terça-feira, 3 de outubro de 2023

Captando os momentos mais curtos

Os três ganhadores do Nobel de Física 2023 estão sendo reconhecidos por seus experimentos no âmbito da física quântica, que deram à humanidade novas ferramentas para explorar o mundo dos elétrons dentro dos átomos e moléculas.

© Revista Física (nuvem eletrônica)

Pierre Agostini, Ferenc Krausz e Anne L’Huillier demonstraram uma maneira de criar pulsos de luz extremamente curtos que podem ser usados para medir os processos rápidos nos quais os elétrons se movem ou mudam de energia. 

Em 1987, a física francesa Anne L'Huillier, professora de Física Atômica na Universidade de Lund, Suécia, descobriu que quando a luz laser infravermelha era transmitida por meio de um gás nobre surgiam muitos tons diferentes de luz. Depois disso, a cientista continuou explorando o fenômeno, preparando a construção para descobertas posteriores. Ela é a quinta mulher a ganhar um Prêmio Nobel de Física, seguindo a Marie Curie (1903), Maria Goeppert-Mayer (1963), Donna Strickland (2018) e Andrea Ghez (2020). 

Já o franco-americano Pierre Agostini, professor da Universidade Estadual de Ohio, EUA, conseguiu em 2001 produzir e investigar uma série de pulsos de luz consecutivos, em que cada pulso durava apenas 250 attosegundos, inventando com a sua equipe o chamado RABBIT, ou seja, a reconstrução de batimentos de attossegundos por interferência de transições de dois fótons. 

Na mesma época, um experimento científico do húngaro Ferenc Krausz, professor da Ludwig-Maximilians-University Munique, Alemanha, possibilitou o isolamento de um único pulso de luz com duração de 650 attosegundos. 

As contribuições dos laureados permitiram a pesquisa de processos tão rápidos que antes eram impossíveis de acompanhar. Um pequeno colibri pode bater as asas 80 vezes por segundo. Só conseguimos perceber isso como um zumbido e movimento turvo. Para o sentidos humanos, movimentos rápidos se confundem, e eventos extremamente curtos são impossíveis de observar. Precisamos usar truques tecnológicos para capturar ou retratar esses breves instantes. Fotografia de alta velocidade e iluminação estroboscópica permite capturar imagens detalhadas de fenômenos rápidos. Uma fotografia altamente focada de um beija-flor em ação requer uma exposição tempo que é muito mais curto do que uma única batida de asas. Quanto mais rápido o evento, mais rápido a imagem precisa ser tomada se for para capturar o instante. 

O mesmo princípio se aplica a todos os métodos utilizados para medir ou representar processos rápidos; qualquer medida deve ser realizada mais rapidamente do que o tempo que leva para o sistema em estudo sofrer uma mudança perceptível, caso contrário o resultado será vago. 

Os laureados deste ano realizaram experiências que demonstram um método para produzir pulsos de luz que são breves o suficiente para capturar imagens de processos dentro dos átomos e moléculas. A escala de tempo natural dos átomos é incrivelmente curta. Em uma molécula, os átomos podem se mover e girar em femtosegundos (milionésimos de um bilionésimo de segundo). Esses movimentos podem ser estudados com o mais curto pulsos que podem ser produzidos com um laser, mas quando átomos inteiros se movem a escala de tempo é determinada por seus núcleos grandes e pesados, que são extremamente lentos em comparação com elétrons leves e ágeis. Quando os elétrons se movem dentro de átomos ou moléculas, eles fazem isso tão rapidamente que as mudanças ficam próximas de um femtosegundo. 

No mundo dos elétrons, as posições e as energias mudam a velocidades entre um e algumas centenas de attosegundos (bilionésimo de bilionésimo de segundo). Um attosegundo é tão curto que o número deles em um segundo é igual ao número de segundos que se passaram desde que o Universo surgiu, 13,8 bilhões de anos atrás. Um femtosegundo foi considerado por muito tempo o limite para os flashes de luz que era possível produzir. Melhorar a tecnologia existente não foi suficiente para ver os processos ocorrendo em um período surpreendentemente breve em escalas de tempo de elétrons; algo inteiramente novo era necessário. 

A luz consiste em ondas, ou seja, vibrações em campos elétricos e magnéticos, que se movem através do vácuo mais rápido do que qualquer outra coisa. Estes têm comprimentos de onda diferentes, equivalentes a cores diferentes. Por exemplo, a luz vermelha tem um comprimento de onda de cerca de 700  nm (nanômetros), um centésimo da largura de um fio de cabelo, e ele circula cerca de 430 trilhões de vezes por segundo. Podemos pensar em o pulso de luz mais curto possível como a duração de um único período na onda de luz, o ciclo onde ele sobe até um pico, desce até um vale e volta ao ponto inicial. Neste caso, os comprimentos de onda usados em sistemas de laser comuns nunca conseguem chegar abaixo de um femtosegundo, então na década de 1980 isso foi considerado como um limite rígido para as emissões de luz mais curtas possíveis. 

No experimento projetado, quando a luz do laser entra no gás e afeta seus átomos, causa vibrações eletromagnéticas que distorcem o campo elétrico que mantém os elétrons ao redor do núcleo atômico. Os elétrons podem então escapar dos átomos. No entanto, o campo elétrico da luz vibra continuamente e, quando ele muda de direção, um elétron solto pode retornar ao núcleo do seu átomo. Durante excursão do elétron, ele coletou muita energia extra do campo elétrico da luz laser e, para reconectar ao núcleo, ele deve liberar seu excesso de energia como um pulso de luz, no caso, no ultravioleta. Esses pulsos de luz dos elétrons criam as conotações que aparecem nos experimentos. 

Pulsos de attossegundos permitem medir o tempo que leva para um elétron ser puxado de um átomo, e examinar como o tempo que isso leva depende de quão fortemente o elétron está ligado ao núcleo do átomo. É possível reconstruir como a distribuição de elétrons oscila posicionalmente em moléculas e materiais; anteriormente a sua posição só poderia ser medida como uma média. 

Estes pulsos podem ser usados para testar os processos internos da matéria e para identificar diferentes eventos. Existem aplicações potenciais em muitas áreas diferentes. Na eletrônica, por exemplo, é importante compreender e controlar como os elétrons se comportam em um material. Eles também podem ser usados para identificar diferentes moléculas, como em diagnósticos médicos, possibilitando nova técnica analítica de diagnóstico in vitro para detectar traços moleculares característicos de doenças em amostras de sangue.

O Prêmio Nobel da Física deste ano abre janelas que antes eram inimaginável para Heisenberg, explorar fenômenos que antes eram impossíveis de observar.

Fonte: Royal Swedish Academy of Sciences

sexta-feira, 18 de agosto de 2023

Propriedades dos neutrinos em supernovas

Num novo estudo, pesquisadores deram um passo importante para compreender como as estrelas em explosão podem ajudar a revelar como os neutrinos, misteriosas partículas subatômicas, interagem secretamente entre si.

© OSU (ilustração de neutrinos gerados por supernovas)

Os neutrinos, que são das partículas elementares menos bem compreendidas, raramente interagem com a matéria normal e, ao invés, viajam invisivelmente através dela quase à velocidade da luz. Estas partículas fantasmagóricas são mais numerosas do que todos os átomos do Universo e estão sempre passando inofensivamente pelos nossos corpos, mas devido à sua baixa massa e à ausência de carga elétrica, podem ser incrivelmente difíceis de encontrar e de estudar. 

No entanto, pesquisadores da Universidade do Estado do Ohio estabeleceram um novo quadro que explica como as supernovas, explosões massivas que anunciam a morte de estrelas em colapso, podem ser utilizadas como ferramentas poderosas para estudar a forma como as autointerações dos neutrinos podem causar vastas alterações cosmológicas no Universo.

Os neutrinos têm apenas taxas de interação muito pequenas com a matéria típica, pelo que é difícil detectá-los e testar as suas propriedades. É por isso que temos de usar a astrofísica e a cosmologia para descobrir fenômenos interessantes sobre eles. Considerados importantes para a formação do Universo primitivo, os neutrinos continuam intrigantes, apesar de se saber que têm origem em várias fontes, como reatores nucleares ou no interior de estrelas moribundas. 

Mas, calculando a forma como as autointerações afetariam o sinal de neutrinos da SN 1987A, a supernova mais próxima observada nos tempos modernos, os astrofísicos descobriram que, quando os neutrinos interagem entre si, formam um fluido fortemente acoplado que se expande sob a hidrodinâmica relativista, um ramo da física que lida com a forma como os fluxos afetam os objetos sólidos de duas maneiras diferentes. 

No caso do chamado "fluxo de explosão", a equipe teoriza que, tal como rebentar um balão altamente pressurizado no vácuo do espaço empurraria a energia para fora, uma explosão produz um fluido de neutrinos que se move em todas as direções. O segundo caso, descrito como um "fluxo de vento", imagina um balão altamente pressurizado com muitos bocais, onde os neutrinos escapam a um ritmo mais constante, semelhante a um jato de vento constante.

Embora a teoria do fluxo de vento seja mais provável de ocorrer na natureza, se o caso da explosão se concretizar, os cientistas poderão ver novas assinaturas observáveis de neutrinos emitidas por supernovas, permitindo uma sensibilidade sem precedentes nas autointerações dos neutrinos. 

Uma das razões pelas quais é tão vital compreender estes mecanismos é que se os neutrinos estão agindo como um fluido, isso significa que estão atuando em conjunto. E se as propriedades dos neutrinos são diferentes como um coletivo do que individualmente, então a física das supernovas também pode sofrer alterações. Mas ainda não se sabe se estas alterações se devem apenas ao caso da explosão ou ao caso do fluxo de vento.

A dinâmica das supernovas é complicada, mas este resultado é prometedor porque, com a hidrodinâmica relativista, sabemos que há uma bifurcação na compreensão do seu funcionamento atual. Ainda assim, é necessário fazer mais estudos antes dos cientistas poderem excluir a possibilidade de o caso da explosão ocorrer também no interior das supernovas. 

Apesar destas incertezas, o estudo é um grande marco na resposta a uma questão astrofísica com décadas de existência: como é que os neutrinos se dispersam quando são ejetados das supernovas?

Este estudo descobriu que, no caso da explosão, é possível uma sensibilidade sem precedentes às autointerações dos neutrinos, mesmo com dados esparsos de neutrinos da SN 1987A e pressupostos de análise conservadores. 

Este problema permaneceu praticamente intocado durante 35 anos. No futuro, a equipe espera que o seu trabalho seja usado como um trampolim para investigar melhor as autointerações dos neutrinos. No entanto, uma vez que, na Via Láctea, só ocorrem cerca de duas ou três supernovas por século, é provável que os pesquisadores tenham de esperar décadas para recolher suficientes dados de neutrinos e assim provar as suas ideias.

Um artigo foi publicado no periódico Physical Review Letters

Fonte: Ohio State University

sábado, 3 de junho de 2023

Um raro decaimento do bóson de Higgs

A descoberta do bóson de Higgs no Large Hadron Collider (LHC) do CERN em 2012 marcou um marco significativo na física de partículas.


© V. H. Visions (decaimento do bóson de Higgs)

Desde então, as colaborações ATLAS e CMS têm investigado diligentemente as propriedades desta partícula única e buscado estabelecer as diferentes maneiras pelas quais ela é produzida e se decompõe em outras partículas. 

Na conferência Large Hadron Collider Physics (LHCP), ATLAS e CMS relatam como se uniram para encontrar a primeira evidência do raro processo no qual o bóson de Higgs decai em um bóson Z, o portador eletricamente neutro da força fraca, e um fóton, o portador da força eletromagnética. Este decaimento do bóson de Higgs pode fornecer evidências indiretas da existência de partículas além daquelas previstas pelo Modelo Padrão da física de partículas. 

O decaimento do bóson de Higgs em um bóson Z e um fóton é semelhante ao decaimento em dois fótons. Nestes processos, o bóson de Higgs não decai diretamente nestes pares de partículas. Em vez disso, os decaimentos ocorrem por meio de um "loop" intermediário de partículas "virtuais" que surgem e desaparecem e não podem ser detectadas diretamente. Estas partículas virtuais podem incluir partículas novas, ainda não descobertas, que interagem com o bóson de Higgs. 

O Modelo Padrão prevê que, se o bóson de Higgs tiver uma massa de cerca de 125 bilhões de elétron-volts, aproximadamente 0,15% dos bósons de Higgs decairão em um bóson Z e um fóton. Mas algumas teorias que estendem o Modelo Padrão preveem uma taxa de decaimento diferente. Medir a taxa de decaimento, portanto, fornece informações valiosas sobre a física além do Modelo Padrão e a natureza do bóson de Higgs. 

Anteriormente, usando dados de colisões próton-próton no LHC, o ATLAS e o CMS conduziram independentemente extensas pesquisas para o decaimento do bóson de Higgs em um bóson Z e um fóton. Ambas as buscas usaram estratégias semelhantes, identificando o bóson Z por meio de seus decaimentos em pares de elétrons ou múons (versões mais pesadas de elétrons). Estes decaimentos do bóson Z ocorrem em cerca de 6,6% dos casos.

Nestas buscas, os eventos de colisão associados a este decaimento do bóson de Higgs (o sinal) seriam identificados como um pico estreito, sobre um fundo suave de eventos, na distribuição da massa combinada dos produtos de decaimento. Para aumentar a sensibilidade ao decaimento, o ATLAS e o CMS exploraram os modos mais frequentes em que o bóson de Higgs é produzido e categorizaram os eventos com base nas características destes processos de produção. Foram também usadas técnicas avançadas de aprendizado de máquina para distinguir ainda mais entre eventos de sinal e de fundo. 

Em um novo estudo, o ATLAS e o CMS uniram forças para maximizar o resultado de suas buscas. Ao combinar os conjuntos de dados coletados por ambos os experimentos durante a segunda execução do LHC, que ocorreu entre 2015 e 2018, as colaborações aumentaram significativamente a precisão estatística e o alcance de suas pesquisas. Este esforço colaborativo resultou na primeira evidência do decaimento do bóson de Higgs em um bóson Z e um fóton. O resultado tem uma significância estatística de 3,4 desvios padrão, abaixo do requisito convencional de 5 desvios padrão para reivindicar uma observação. A taxa de sinal medida é 1,9 desvios padrão acima da previsão do Modelo Padrão.

Cada partícula tem uma relação especial com o bóson de Higgs, tornando a busca por raros decaimentos de Higgs uma alta prioridade. A existência de novas partículas pode ter efeitos muito significativos nos raros modos de decaimento do Higgs. Este estudo é um teste poderoso do Modelo Padrão. Com a terceira execução em curso do LHC e o futuro LHC de alta luminosidade, será possível melhorar a precisão deste teste e sondar decaimentos de Higgs cada vez mais raros.

Fonte: CERN

quinta-feira, 1 de junho de 2023

Ouvindo o "timbre" dos buracos negros

A teoria da relatividade geral de Albert Einstein descreve a forma como o tecido do espaço-tempo, é curvado em resposta à massa.

© Y. Steele (ilustração do espaço-tempo de um buraco negro)

A imagem mostra o remanescente da fusão de um buraco negro binário que está emitindo as suas últimas ondas gravitacionais antes de assentar. As ondas gravitacionais previstas pela relatividade geral são representadas pelas espirais azuis que se afastam do buraco negro. Os desvios da relatividade geral podem aparecer como deformações das ondas gravitacionais e são representados pelas espirais vermelhas.

O nosso Sol, por exemplo, deforma o espaço à nossa volta de tal forma que o planeta Terra orbita o Sol como uma bola de gude atirado para um funil (a Terra não cai para o Sol devido ao impulso lateral do planeta). 

A teoria, que foi revolucionária no momento em que foi proposta em 1915, reformulou a gravidade como uma curvatura do espaço-tempo. Por muito fundamental que esta teoria seja para a própria natureza do espaço à nossa volta, isso pode não ser o fim da história. Em vez disso, as teorias quânticas da gravidade, que tentam unificar a relatividade geral com a física quântica, contêm segredos sobre o funcionamento do nosso Universo a níveis mais profundos. 

Um dos locais onde se podem procurar assinaturas quânticas de gravidade é nas poderosas colisões entre buracos negros, onde a gravidade atinge o seu ponto mais extremo. Os buracos negros são os objetos mais densos do Universo, onde a sua gravidade é tão forte que espremem os objetos que neles caem como se fossem espaguete. 

Quando dois buracos negros colidem e se fundem num corpo maior, perturbam o espaço-tempo ao redor, enviando ondas gravitacionais em todas as direções. O LIGO (Laser Interferometer Gravitational-Wave Observatory) tem detectado regularmente ondas gravitacionais geradas por fusões de buracos negros desde 2015 (os seus observatórios parceiros, Virgo e KAGRA, juntaram-se à caça em 2017 e 2020, respetivamente). 

No entanto, até agora, a teoria da relatividade geral tem passado teste após teste, sem sinais de ruptura. Agora, dois novos artigos científicos liderados pelo Caltech (California Institute of Technology), publicados nos periódicos Physical Review X e Physical Review Letters, descrevem novos métodos para submeter a relatividade geral a testes ainda mais rigorosos.

Observando mais de perto as estruturas dos buracos negros e as ondulações no espaço-tempo que produzem, os cientistas procuram sinais de pequenos desvios da relatividade geral que indiciem a presença de gravitação quântica. Quando dois buracos negros se fundem para produzir um buraco negro maior, o buraco negro final gera um sinal sonoro.

A qualidade do seu timbre, pode ser diferente das previsões da relatividade geral se certas teorias da gravitação quântica estiverem corretas. Estes métodos foram concebidos para procurar diferenças na qualidade desta fase de descida do zumbido, como os harmônicos e os sobretons. 

O primeiro artigo, publicado na revista Physical Review X, apresenta uma nova equação para descrever o "timbre" dos buracos negros no âmbito de certas teorias quânticas da gravidade. O trabalho baseia-se numa equação inovadora desenvolvida há 50 anos por Saul Teukolsky, professor de astrofísica teórica no Caltech. Teukolsky tinha desenvolvido uma equação completa para compreender melhor a forma como as ondulações da geometria do espaço-tempo se propagam à volta dos buracos negros. Em contraste com os métodos numéricos da relatividade, em que são necessários supercomputadores para resolver simultaneamente muitas equações diferenciais da relatividade geral, a equação de Teukolsky é muito mais simples de utilizar e fornece uma visão física direta do problema. 

Se alguém quiser resolver todas as equações de Einstein da fusão de um buraco negro para a simular com precisão, tem de recorrer a supercomputadores. Os métodos numéricos da relatividade são extremamente importantes para simular com exatidão as fusões de buracos negros e constituem uma base crucial para a interpretação dos dados do LIGO. Mas é extremamente difícil para os físicos extrair intuições diretamente dos resultados numéricos. A equação de Teukolsky fornece uma visão intuitiva do que se está passando na fase de descida do zumbido. Esta equação permite modelar e compreender as ondas gravitacionais que se propagam à volta dos buracos negros, que são mais exóticas do que Einstein previu.

O segundo artigo, publicado na revista Physical Review Letters, descreve uma nova forma de aplicar a equação de Teukolsky aos dados reais obtidos pelo LIGO e pelos seus parceiros na sua próxima série de observações. Esta abordagem de análise de dados utiliza uma série de filtros para remover características do "timbre" de um buraco negro previstas pela relatividade geral, de modo a que possam ser reveladas assinaturas potencialmente sutis além da relatividade geral.

Os físicos encontraram uma forma de traduzir um grande conjunto de equações complexas numa só equação, o que é extremamente útil. Esta equação é mais eficiente e mais fácil de usar do que os métodos que usados anteriormente. Os dois estudos complementam-se e podem aumentar significativamente a capacidade para sondar a gravidade.

Fonte: California Institute of Technology

terça-feira, 4 de outubro de 2022

O poder do emaranhamento quântico

Alain Aspect, John Clauser e Anton Zeilinger conduziram experimentos inovadores usando estados quânticos emaranhados, onde duas partículas se comportam como uma única unidade, mesmo quando separadas.

© J. Jarnestad (ilustração de um emaranhamento quântico)

Alain Aspect nasceu em 1947 em Agen, na França. Em 1983, terminou seu doutorado na universidade francesa Paris-Sud. Atualmente, ele é professor na Universidade Paris-Saclay e na Escola Politécnica, ambas também na França. John F. Clauser nasceu em 1942 em Pasadena, Califórnia, EUA. Seu doutorado foi cursado na Universidade Columbia, em Nova York. Agora, ele atua como pesquisador de física na J. F. Clauser e Associados. Anton Zeilinger nasceu em 1945 na Áustria. Ele estudou o doutorado na Universidade de Viena, onde atualmente atua como professor acadêmico.

Seus resultados abriram caminho para novas tecnologias baseadas em informações quânticas. Os efeitos inefáveis da mecânica quântica estão começando a encontrar aplicações. Existe agora um grande campo de pesquisa que inclui computadores quânticos, redes quânticas e comunicação criptografada quântica segura. 

Um fator preponderante neste desenvolvimento é como a mecânica quântica permite que duas ou mais partículas existam no que é chamado de estado emaranhado. O que acontece com uma das partículas em um par emaranhado determina o que acontece com a outra partícula, mesmo que estejam distantes. O físico Erwin Schrödinger disse que o emaranhamento era a característica mais importante da mecânica quântica.

A física quântica é a área dedicada aos estudos de minúsculas partículas que formam o Universo e as interações que ocorrem entre elas. Uma comparação do estado emaranhado entre partículas seria com uma máquina que lança bolas brancas e pretas em direções opostas. Um indivíduo que está em um dos lados recebe uma bola branca e, então, conclui que a bola da posição oposta foi preta. Quando esta situação é analisada pelo aspecto da física quântica, a explicação se torna um tanto mais complexa. As bolas seriam as partículas e estariam em um par emaranhado porque, quando alguém recebe uma delas, já pode determinar qual o estado (cor) da outra. No entanto, para a física quântica, a propriedade destas bolas antes de lançadas seria, na realidade, cinza. É só quando uma das pessoas percebe que a bola recebida é preta que a cor da outra se modificaria, tornando-se branca.

Por muito tempo, a questão era se a correlação era porque as partículas em um par emaranhado continham variáveis ocultas, instruções que lhes diziam qual resultado deveriam dar em um experimento. Na década de 1960, John Stewart Bell desenvolveu a desigualdade matemática que leva seu nome. Isto afirma que, se houver variáveis ​​ocultas, a correlação entre os resultados de um grande número de medições nunca excederá um determinado valor. No entanto, a mecânica quântica prevê que um certo tipo de experimento violará a desigualdade de Bell, resultando em uma correlação mais forte do que seria possível. 

John Clauser desenvolveu as ideias de John Bell, levando a um experimento prático. Quando ele fez as medições, elas apoiaram a mecânica quântica violando claramente uma desigualdade de Bell. Isto significa que a mecânica quântica não pode ser substituída por uma teoria que usa variáveis ​​ocultas. 

Algumas brechas permaneceram após o experimento de John Clauser. Alain Aspect desenvolveu a configuração, usando-a de uma forma que fechou uma brecha importante. Ele foi capaz de mudar as configurações de medição depois que um par emaranhado deixou sua fonte, de modo que a configuração que existia quando eles foram emitidos não poderia afetar o resultado. 

Usando ferramentas refinadas e uma longa série de experimentos, Anton Zeilinger começou a usar estados quânticos emaranhados. Entre outras coisas, seu grupo de pesquisa demonstrou um fenômeno chamado teletransporte quântico, que possibilita mover um estado quântico de uma partícula para outra à distância.

Estados quânticos emaranhados têm potencial para novas formas de armazenamento, transferência e processamento de informações.

Coisas interessantes acontecem se as partículas em um par emaranhado viajam em direções opostas e uma delas encontra uma terceira partícula de tal maneira que elas ficam emaranhadas. Então, elas entram em um novo estado compartilhado. A terceira partícula perde sua identidade, mas suas propriedades originais agora foram transferidas para a partícula do par original. Esta maneira de transferir um estado quântico desconhecido de uma partícula para outra é chamada de teletransporte quântico. Este tipo de experimento foi realizado pela primeira vez em 1997 por Anton Zeilinger e seus colegas.

Notavelmente, o teletransporte quântico é a única maneira de transferir informações quânticas de um sistema para outro sem perder nenhuma parte dele. É absolutamente impossível medir todas as propriedades de um sistema quântico e depois enviar a informação para um destinatário que queira reconstruir o sistema. Isto ocorre porque um sistema quântico pode conter várias versões de cada propriedade simultaneamente, onde cada versão tem uma certa probabilidade de aparecer durante uma medição. Assim que a medição é realizada, apenas uma versão permanece, ou seja, aquela que foi lida pelo instrumento de medição. As outras desapareceram e é impossível saber alguma coisa sobre elas. No entanto, propriedades quânticas totalmente desconhecidas podem ser transferidas usando o teletransporte quântico e aparecem intactas em outra partícula, mas ao preço de serem destruídas na partícula original.

Uma vez que isso foi demonstrado experimentalmente, o próximo passo foi usar dois pares de partículas emaranhadas. Se uma partícula de cada par for reunida de uma maneira particular, as partículas não perturbadas em cada par podem ficar emaranhadas, apesar de nunca terem estado em contato umas com as outras. Esta troca de emaranhamento foi demonstrada pela primeira vez em 1998 pelo grupo de pesquisa de Anton Zeilinger.

Pares de fótons emaranhados, partículas de luz, podem ser enviados em direções opostas através de fibras ópticas e funcionar como sinais em uma rede quântica. O emaranhamento entre dois pares torna possível estender as distâncias entre os nós em tal rede. Existe um limite para a distância que os fótons podem ser enviados através de uma fibra óptica antes de serem absorvidos ou perderem suas propriedades. Sinais de luz comuns podem ser amplificados ao longo do caminho, mas isso não funciona com pares emaranhados. Um amplificador tem que capturar e medir a luz, o que quebra o emaranhamento. No entanto, a troca de emaranhamento significa que é possível enviar o estado original ainda mais, transferindo-o por distâncias maiores do que seria possível.

Os estados quânticos emaranhados já foram demonstrados entre fótons que foram enviados através de dezenas de quilômetros de fibra óptica e entre um satélite e uma estação no solo. Em pouco tempo, pesquisadores de todo o mundo descobriram muitas novas maneiras de utilizar a propriedade mais poderosa da mecânica quântica.

A primeira revolução quântica nos forneceu transistores e lasers, mas agora estamos entrando em uma nova era graças às ferramentas contemporâneas para manipular sistemas de partículas emaranhadas.

Fonte: Royal Swedish Academy of Science

sábado, 20 de agosto de 2022

O próton contém um quark charm?

A descrição num livro didático sobre um próton diz que ele contém três partículas menores, dois quarks up e um quark down, mas uma nova análise encontrou fortes evidências de que ele também contém um quark charm.

© CERN (ilustração de um próton)

O próton, uma partícula encontrada no coração de cada átomo, parece ter uma estrutura mais complicada do que a tradicionalmente apresentada nos livros didáticos. A descoberta pode ter ramificações para experimentos de física de partículas sensíveis, como o Grande Colisor de Hádrons (LHC). 

Enquanto os prótons já foram considerados indivisíveis, experimentos com aceleradores de partículas na década de 1960 revelaram que eles continham três partículas menores, chamadas quarks. Os quarks possuem seis tipos, ou sabores: up, down, top, bottom, charm e strange. Eles geralmente se combinam em grupos de dois e três para formar hádrons, como os prótons e nêutrons que compõem os núcleos atômicos. Uma partícula subatômica composta por um quark e um antiquark de carga de cor oposta formam os mésons. Mais raramente, no entanto, eles também podem se combinar em partículas de quatro (tetraquarks) e cinco quarks (pentaquarks). Estes hádrons exóticos foram previstos por teóricos ao mesmo tempo que os hádrons convencionais, cerca de seis décadas atrás, mas apenas recentemente, nos últimos 20 anos, eles foram observados pelo LHCb e outros experimentos.

A colaboração internacional do LHCb observou, no mês passado, três partículas em decaimentos de mésons B nunca antes vistas: um novo tipo de pentaquark e o primeiro par de tetraquarks, que inclui um novo tipo de tetraquark. As descobertas, apresentadas num seminário do European Organization for Nuclear Research (CERN), adicionam três novos membros exóticos à crescente lista de novos hádrons encontrados no LHC. Eles ajudarão os físicos a entender melhor como os quarks se unem nestas partículas compostas.

Na mecânica quântica, a estrutura de uma partícula é governada por probabilidades, o que significa que teoricamente há uma chance de que outros quarks possam surgir dentro do próton na forma de pares matéria-antimatéria. Um experimento da European Muon Collaboration no CERN em 1980 sugeriu que o próton poderia conter um quark charm e seu equivalente de antimatéria, um anticharm, mas os resultados foram inconclusivos e muito debatidos. Houve outras tentativas de identificar o componente de charme do próton, mas diferentes grupos encontraram resultados conflitantes e tiveram dificuldade em separar os blocos de construção intrínsecos de um próton do ambiente de alta energia dos aceleradores de partículas, onde todo tipo de quark é criado e destruído em rápida sucessão.

Agora, Juan Rojo, da Vrije University Amsterdam, na Holanda, e seus colegas encontraram evidências de que uma pequena parte do momento do próton, cerca de 0,5%, vem do quark charm.

Para isolar o componente do quark charm, Rojo e sua equipe usaram um modelo de aprendizado de máquina para criar estruturas hipotéticas de prótons consistindo em todos os diferentes tipos de quarks e depois as compararam com mais de 500.000 colisões do mundo real de décadas de experimentos com aceleradores de partículas, incluindo no LHC. 

Os pesquisadores descobriram que, se o próton não contiver um par de quarks charm-anticharm, há apenas 0,3% de chance de ver os resultados que examinaram. Este resultado significa 3-sigma, que normalmente é visto como um sinal potencial de algo interessante. Mais trabalho é necessário para aumentar os resultados para o nível de 5-sigma, o que significa cerca de 1 em 3,5 milhões de chance de um resultado por acaso, que é tradicionalmente o limite para uma descoberta.

A equipe analisou os resultados recentes do experimento LHCb Z-boson e modelou a distribuição estatística do momento do próton com e sem um quark charm. Eles descobriram que o modelo combinava melhor com os resultados se o próton fosse assumido como tendo um quark charm. Isso significa que eles estão mais confiantes em propor a presença de um quark charm do que o nível sigma por si só sugere. 

Dada a onipresença desta partícula e há quanto tempo a conhecemos, ainda há muito que não entendemos sobre sua subestrutura. O observatório de neutrinos IceCube na Antártida, que procura neutrinos raros produzidos quando raios cósmicos atingem partículas na atmosfera da Terra, também pode precisar levar em conta esta nova estrutura. A probabilidade de um raio cósmico impactar um núcleo atmosférico e produzir neutrinos é bastante sensível a presença de um quark charm do próton.

Um artigo foi publicado na revista Nature

Fonte: New Scientist

terça-feira, 5 de outubro de 2021

Nobel de Física: Clima e Sistemas Complexos

O prêmio Nobel de Física de 2021 foi concedido para pesquisa de sistemas complexos, especialmente para predição do aquecimento global.

© Johan Jarnestad (ilustração da influência climática na Terra)

A Academia Real das Ciências da Suécia anunciou os ganhadores Syukuro Manabe, da Universidade de Princeton, EUA, Klaus Hasselmann, do Instituto Max Planck para Meteorologia, Alemanha, e Giorgio Parisi, da Universidade de Roma, Itália.

Syukuro Manabe e Klaus Hasselmann estabeleceram a base de nosso conhecimento sobre o clima da Terra e como a humanidade o influencia. Giorgio Parisi é recompensado por suas contribuições revolucionárias à teoria de materiais desordenados e processos aleatórios. 

Os sistemas complexos são caracterizados pela aleatoriedade e desordem e são difíceis de entender. O prêmio deste ano reconhece novos métodos para descrevê-los e prever seu comportamento a longo prazo. Um sistema complexo de vital importância para a humanidade é o clima da Terra. 

Syukuro Manabe demonstrou como o aumento dos níveis de dióxido de carbono na atmosfera leva ao aumento da temperatura na superfície da Terra. Na década de 1960, ele liderou o desenvolvimento de modelos físicos do clima da Terra e foi a primeira pessoa a explorar a interação entre o balanço de radiação e o transporte vertical de massas de ar. Seu trabalho lançou as bases para o desenvolvimento dos modelos climáticos atuais. 

Cerca de dez anos depois, Klaus Hasselmann criou um modelo que liga o tempo e o clima, demonstrando que os modelos climáticos podem ser confiáveis apesar do tempo ser mutável e caótico. Ele também desenvolveu métodos para identificar sinais específicos, impressões digitais, que os fenômenos naturais e as atividades humanas imprimem no clima. Seus métodos têm sido usados para provar que o aumento da temperatura na atmosfera é devido às emissões humanas de dióxido de carbono.

Duzentos anos atrás, o físico francês Joseph Fourier estudou o equilíbrio de energia entre a radiação do Sol em direção ao solo e a radiação emanada do solo. Ele entendeu a função da atmosfera neste equilíbrio; na superfície da Terra, a radiação solar incidente é transformada em radiação de corpo negro que é absorvida pela atmosfera, aquecendo-a. A atmosfera bloqueia esta radiação, caracterizando o efeito estufa. Este nome vem de sua semelhança com o vidro numa estufa, que permitem passar os raios solares, mas retêm o calor no interior, gerando aquecimento. 

No entanto, os processos radioativos na atmosfera são muito mais complicados. A tarefa é investigar o equilíbrio entre a radiação solar de onda curta vinda em direção ao nosso planeta e a radiação infravermelha de onda longa emitida da Terra. Os detalhes foram acrescentados por muitos cientistas do clima nos dois séculos seguintes. Os modelos climáticos contemporâneos são ferramentas incrivelmente poderosas, não só para compreender o clima, mas também para entender o aquecimento global pelo qual os humanos são responsáveis. Estes modelos são baseados nas leis da física e propriedades estatísticas, que foram desenvolvidos para prever o tempo, que é descrito por quantidades meteorológicas, como temperatura, precipitação, vento ou nuvens, e é afetado pelo que acontece nos oceanos e no solo. 

Os estudos modernos de sistemas complexos estão enraizados na mecânica estatística desenvolvida na segunda metade do século 19 por James C. Maxwell, Ludwig Boltzmann e J. Willard Gibbs, que nomeou este campo em 1884. A mecânica estatística evoluiu a partir de um novo tipo de método necessário para descrever sistemas, como gases ou líquidos, que consistem em um grande número de partículas. Este método teve que considerar os movimentos aleatórios das partículas, então a ideia básica era calcular o efeito médio das partículas em vez de estudar cada partícula individualmente. Por exemplo, a temperatura em um gás é uma medida do valor médio da energia das partículas do gás. 

A mecânica estatística fornece uma explicação microscópica para propriedades macroscópicas em gases e líquidos, como temperatura e pressão. As partículas em um gás podem ser consideradas como pequenas bolas se deslocando em velocidades que aumentam com a temperatura. Quando a temperatura cai ou a pressão aumenta, as bolas primeiro se condensam em um líquido e então em um sólido, que geralmente é um cristal. No entanto, se esta mudança acontecer rapidamente, as bolas podem formar um padrão irregular que não mude mesmo se o líquido for resfriado ou comprimido. Se o experimento for repetido, as bolas assumirão um novo padrão, apesar da mudança acontecer exatamente da mesma maneira. Por que os resultados são diferentes?

Por volta de 1980, Giorgio Parisi descobriu padrões ocultos em materiais complexos desordenados. Suas descobertas estão entre as contribuições mais importantes para a teoria dos sistemas complexos, da interação entre desordens e flutuações em sistemas físicos, de escalas atômicas até planetárias. Eles tornam possível compreender e descrever muitos materiais e fenômenos diferentes e aparentemente inteiramente aleatórios, não apenas na física, mas também em outras áreas muito diferentes, como matemática, biologia, neurociência e aprendizado de máquina. 

“As descobertas reconhecidas este ano demonstram que o nosso conhecimento sobre o clima assenta numa base científica sólida, baseada numa análise rigorosa das observações. Todos os laureados deste ano contribuíram para que obtivéssemos uma visão mais profunda das propriedades e da evolução de sistemas físicos complexos”, disse Thors Hans Hansson, presidente do Comitê Nobel de Física.

Fonte: Royal Swedish Academy of Sciences

sexta-feira, 17 de setembro de 2021

Descoberta partícula exótica de longa vida

O experimento LHCb (Large Hadron Collider beauty) no CERN (European Organization for Nuclear Research) apresentou uma nova descoberta na Conferência da Sociedade Física Europeia sobre Física de Altas Energias.

© CERN (tetraquark Tcc+)

A nova partícula descoberta pelo LHCb, rotulada como Tcc+, é um tetraquark, um hádron exótico contendo dois quarks e dois antiquarks. É a partícula de matéria exótica de vida mais longa já descoberta. 

Os quarks são os blocos de construção fundamentais a partir dos quais a matéria é construída. Eles se combinam para formar hádrons, ou seja, bárions, como o próton e o nêutron, que consistem em três quarks, e os mésons, que são formados como pares quark-antiquark. 

Nos últimos anos, vários dos chamados hádrons exóticos, partículas com quatro ou cinco quarks, em vez dos convencionais dois ou três, foram encontrados. A descoberta é de um hádron exótico particularmente único. A nova partícula contém dois quarks charm e um antiquark up e um antiquark down. Vários tetraquarks foram descobertos nos últimos anos (incluindo um com dois quarks charm e dois antiquarks charm), mas este é o primeiro que contém dois quarks charm, sem antiquarks charm para equilibrá-los.

Partículas contendo um quark charm e um antiquark charm têm “charmo culto”, o número quântico charm de toda a partícula é igual a zero. Aqui, o número quântico charm soma dois, portanto, tem o dobro de charm!

O conteúdo quark do Tcc+ possui outras características interessantes além de ser um charm aberto. É a primeira partícula a ser encontrada pertencente a uma classe de tetraquarks com dois quarks pesados e dois antiquarks leves. Estas partículas decaem ao se transformar em um par de mésons, cada um formado por um dos quarks pesados e um dos antiquarks leves.

De acordo com algumas previsões teóricas, a massa dos tetraquarks deste tipo deve ser muito próxima da soma das massas dos dois mésons. Tal proximidade em massa torna o decaimento “difícil”, resultando em uma vida útil mais longa da partícula e, de fato, a partícula Tcc+ é o hádron exótico de vida mais longa encontrado até hoje. 

A descoberta abre caminho para a busca por partículas mais pesadas do mesmo tipo, com um ou dois quarks charm substituídos por quarks bottom. A partícula com dois quarks bottom é especialmente interessante: de acordo com os cálculos, sua massa deveria ser menor que a soma das massas de qualquer par de mésons B. Isto tornaria o decaimento não apenas improvável, mas realmente proibido: a partícula não seria capaz de decair por meio da interação forte e teria que fazê-lo por meio da interação fraca, o que tornaria seu tempo de vida várias ordens de magnitude mais longo do que o de qualquer hádron exótico observado anteriormente. 

O novo tetraquark Tcc+ é um alvo atraente para estudos futuros. As partículas nas quais ele decai são comparativamente fáceis de detectar e, em combinação com a pequena quantidade de energia disponível no decaimento, isto leva a uma excelente precisão em sua massa e permite o estudo dos números quânticos desta partícula fascinante. Isto, por sua vez, pode fornecer um teste rigoroso para modelos teóricos existentes e pode até mesmo permitir que efeitos anteriormente inalcançáveis sejam sondados. 

Fonte: CERN

terça-feira, 31 de agosto de 2021

Gerando matéria colidindo partículas de luz

Dois experimentos realizados no laboratório Laboratório Nacional de Brookhaven, nos EUA, forneceram evidências definitivas para dois fenômenos da físicas previstos teoricamente há quase oitenta anos.

© Brookhaven National Laboratory (detector STAR do RHIC)

As descobertas foram feitas por meio de uma análise detalhada de mais de 6 mil pares de elétrons e pósitrons produzidos em colisões de partículas no acelerador de partículas Relativistic Heavy Ion Collider (RHIC). 

Em um primeiro experimento, cientistas provaram que pares de elétrons e pósitrons, partículas de matéria e antimatéria, podem ser criados diretamente pela colisão de fótons muito energéticos. Esta conversão da luz com muita energia em matéria é uma consequência direta da famosa equação E = mc^2 de Einstein, segundo a qual energia e matéria (ou massa) são intermutáveis. Por exemplo, usinas nucleares convertem regularmente matéria em energia. Agora, os cientistas converteram a energia da luz diretamente em matéria em uma única etapa. 

Já o segundo experimento mostrou pela primeira vez que a curvatura do caminho da luz que viaja através de um campo magnético no vácuo depende do modo como a luz é polarizada. Este desvio dependente da polarização, também conhecido como birrefringência, ocorre quando a luz viaja através de certos materiais. O efeito é semelhante à dupla refração dependente do comprimento de onda que divide a luz branca nas demais cores do espectro.

Para a realização de ambos os experimentos, as capacidades do detector STAR do RHIC , o Solenoid Tracker no RHIC, foram essenciais. O equipamento é capaz de medir a distribuição angular das partículas produzidas em colisões de íons numa velocidade próxima à da luz. 

No ano de 1934, os físicos Gregory Breit e John A. Wheeler descreveram a possibilidade hipotética de colidir partículas de luz para criar pares de elétrons e suas contrapartes de antimatéria, conhecidas como pósitrons. Eles já percebiam que isso era quase impossível de fazer. Mas Breit e Wheeler propuseram uma alternativa: acelerar íons pesados. E a alternativa deles é exatamente o que está sendo feito no RHIC.

Um íon de ouro, com 79 prótons, carrega uma poderosa carga positiva. Acelerar este íon a velocidades muito altas gera um poderoso campo magnético. Este gira em torno da partícula em alta velocidade enquanto ela viaja. É como uma corrente fluindo através de um fio. Se a velocidade for alta o suficiente, a força do campo magnético circular pode ser igual à força do campo elétrico perpendicular. E este arranjo de campos consiste no fóton, uma “partícula” quantizada de luz. Então, quando os íons estão se movendo perto da velocidade da luz, há um monte de fótons ao redor do núcleo de ouro. Eles o acompanham como uma nuvem.

No RHIC, os cientistas aceleram os íons de ouro a 99,995% da velocidade da luz em dois anéis aceleradores. Surgem duas nuvens de fótons movendo-se em direções opostas com energia e intensidade suficientes para que, quando os dois íons passem um pelo outro sem colidir, estes campos de fótons possam interagir. 

Os físicos do STAR rastrearam as interações e procuraram os pares elétron-pósitron previstos. Outros cientistas tentaram criar pares elétron-pósitron a partir de colisões de luz usando lasers poderosos, ou seja, feixes focalizados de luz intensa. Mas os fótons individuais dentro destes feixes intensos ainda não têm energia suficiente. 

Anteriormente, um experimento no SLAC National Accelerator Laboratory em 1997 foi bem-sucedido usando um processo não linear. Os cientistas primeiro tiveram que aumentar a energia dos fótons em um feixe de laser, para, em seguida, provocar uma colisão com um poderoso feixe de elétrons. Desta maneira, as colisões dos fótons energizados em um enorme campo eletromagnético criado por laser produziram matéria e antimatéria.

A capacidade do STAR de medir as minúsculas refrações duplas de elétrons e pósitrons, produzidas quase que consecutivamente nestes eventos, também possibilitou que os físicos estudassem como as partículas de luz interagem com os poderosos campos magnéticos gerados pelos íons acelerados. 

“A nuvem de fótons em torno dos íons de ouro em um dos feixes de RHIC dispara na direção do forte campo magnético circular produzido no outro feixe. Observar a distribuição das partículas que saem da nuvem mostra como a luz polarizada interage com o campo magnético. 

Werner Heisenberg e Hans Heinrich Euler, em 1936, e John Toll, na década de 1950, previram que um vácuo do espaço vazio poderia ser polarizado por um poderoso campo magnético. Este vácuo polarizado, então, deveria desviar os caminhos dos fótons dependendo da polarização destes. Toll, em sua tese, também detalhou como a absorção de luz por um campo magnético depende da polarização e de sua conexão com o índice de refração da luz no vácuo. Esta birrefringência foi observada em muitos tipos de cristais. Além disso, um recente relatório registrou a curvatura da luz proveniente de uma estrela de nêutrons. É provável que o fenômeno tenha acontecido devido a interações dessa luz com o campo magnético da estrela. Mas, até o momento, nenhum experimento com base na Terra havia conseguido detectar a ocorrência da birrefringência no vácuo.

No RHIC, os cientistas mediram como a polarização da luz afetava se a luz era “absorvida” pelo campo magnético. Isso é semelhante ao modo como os óculos de sol polarizados bloqueiam a passagem de certos raios se eles não corresponderem à polarização das lentes. No caso dos óculos de sol, além de vermos uma menor quantidade de luz passar, é possível, a princípio, medir um aumento na temperatura do material da lente à medida que ele absorve a energia da luz bloqueada.

No RHIC, a energia luminosa absorvida é o que cria os pares elétron-pósitron. Os produtos produzidos pelas interações fóton-fóton no RHIC, possibilita verificar que a distribuição angular dos produtos depende do ângulo de polarização da luz. Isso indica que a absorção da luz depende de sua polarização. 

Os resultados foram publicados no periódico Physical Review Letters.

Fonte: Scientific American

segunda-feira, 19 de julho de 2021

Efeito fotoelétrico aplicado em radioterapia

Pesquisadores descobriram que efeito fotoelétrico, explicado por Einstein em 1905, pode potencializar a destruição de tumores via radioterapia.

© U. de Kyoto (moléculas de iodo ajudam a destruir tumores)

A radioterapia é um dos principais tratamentos oncológicos hoje disponíveis. No entanto, ela sofre com um problema de eficácia. Para que a irradiação de raios X possa funcionar, é necessário que haja moléculas de oxigênio. Quando os raios X chegam ao interior da célula, eles induzem reações entre o oxigênio e o DNA que podem danificar o tumor, impedindo seu crescimento e multiplicação. Porém, na região central dos tumores, os níveis de oxigênio são baixos, devido à falta de vasos sanguíneos.

Há anos, cientistas do Instituto de Ciências Integradas de Material Celular da Universidade de Kyoto (iCeMS), junto a colaboradores japoneses e americanos, tentam superar este problema e encontrar maneiras mais diretas e eficazes de tratar o DNA de células de câncer empregando princípios da física quântica.

Em trabalhos anteriores, os pesquisadores mostraram que nanopartículas carregadas de gadolínio podem matar células cancerosas quando irradiadas com 50,25 keV de radiação síncrotron. Para realizar o estudo atual, eles projetaram nanopartículas orgânicas porosas contendo iodo. O iodo é mais barato do que o gadolínio e libera elétrons com níveis menores de energia. 

No experimento, os pesquisadores dispersaram suas nanopartículas sobre estruturas esféricas de tecido que continham células cancerosas. As estruturas esferoides foram depois submetidas à irradiação por raios X com intensidade de 33,2 keV durante 30 minutos. 

O iodo libera elétrons que rompem o DNA do tumor, levando à morte celular. O resultado foi a destruição completa dos tumores em três dias. Após fazerem experimentações sistemáticas nos níveis de energia, eles foram capazes de demonstrar que o efeito ideal de destruição do tumor ocorre com o raio X de 33,2 keV.

A exposição de um metal à luz leva à liberação de elétrons, um fenômeno chamado efeito fotoelétrico. Em 1905, Albert Einstein explicou este fenômeno, onde foi agraciado com o Prêmio Nobel pela descoberta. esta pesquisa fornece evidências que sugerem que é possível reproduzir este efeito dentro das células cancerosas.

Análises posteriores mostraram que as nanopartículas foram absorvidas pelas células tumorais. Com a quantidade certa de energia, o iodo liberou elétrons que causaram quebras na fita dupla no DNA nuclear e, assim provocaram a morte celular.

Este estudo é um exemplo importante de como um fenômeno da física quântica pode ser empregado dentro de uma célula cancerosa. Parece que uma nuvem de elétrons de baixa energia é gerada perto do DNA. Isto causa danos difíceis de serem reparados e leva à morte da célula.

Agora, a equipe buscará entender como os elétrons são liberados dos átomos de iodo após estes serem expostos aos raios X. Além disso, os pesquisadores querem inserir o iodo dentro do DNA, para aumentar a sua eficácia, e testar as nanopartículas em modelos de câncer em ratos. 

As recentes descobertas foram publicadas na revista Scientific Reports.

Fonte: Scientific American

quinta-feira, 1 de abril de 2021

Revelando novas partículas elementares

Após duas década de espera, que incluíram uma longa batalha para obter financiamento e uma mudança para o outro lado do continente, um experimento sobre múons está prestes a revelar seus resultados.

© Fermilab (experimento Muón g-2)

Estas são partículas semelhantes ao elétron, porém de maior massa e mais instáveis. Os físicos esperam que as mais recentes medidas sobre o magnetismo do múon confirme achados anteriores que podem levar à descoberta de novas partículas.

A divulgação da conclusões do estudo está prevista para o dia 7 de abril. A pesquisa, intitulada experimento Múon g–2, que agora acontece no Fermilab (Fermi National Accelerator Laboratory), um laboratório especializado em física de partículas de alta energia localizado nos EUA, já havia sido realizado anteriormente entre 1997 e 2001 no Laboratório Nacional de Brookhaven em Long Island, Nova York.

Os resultados originais, anunciados em 2001 e finalizados em 2006, geraram controvérsia entre os físicos. Eles revelaram que o momento magnético do múon, que indica o tamanho do campo magnético gerado, é levemente maior do que o previsto pela teoria. Caso estes resultados sejam confirmado, no anúncio da próxima semana ou em experimentos futuros, eles podem revelar a existência de novas partículas elementares.

O experimento Múon g–2 consegue medir o momento magnético da partícula ao promover sua movimentação em um círculo de 15 metros de diâmetro. Um imã poderoso mantém os múons em sua rota circular, ao mesmo tempo em que causa a rotação de seus polos magnéticos. Quanto maior for o momento magnético da partícula, mais rápido ela irá rodar, como um pião em precessão.

A discrepância em relação à teoria encontrada pelo experimento original era pequena. À primeira vista, a física quântica prevê que partículas elementares, como o múon e o elétron, possuem um momento magnético exatamente igual a 2 (a unidade de medida depende da partícula). No entanto, cálculos mais completos revelam variações deste valor, já que o espaço vazio jamais está completamente vazio. O espaço em volta do múon contém uma diversidade de partículas virtuais, versões efêmeras de partículas reais que aparecem e desaparecem continuamente, algo que altera o campo magnético do múon. 

Desta maneira, quanto maior for a variedades das partículas, maior será o impacto de suas versões virtuais no momento magnético. Isto significa que uma medição de alta precisão pode revelar evidências indiretas da existência de novas partículas, anteriormente desconhecidas aos cientistas. 

O momento magnético obtido é apenas levemente diferente de 2. Esta diferença é o que chamada g–2 . Em Brookhaven, os físicos descobriram que g–2 é igual a 0.0023318319. À época, este valor era maior do que a estimativa da contribuição das partículas virtuais conhecidas. A precisão da medição não era alta o suficiente para permitir que se afirmasse, com confiança, que a discrepância era real. Os resultados também vieram em um momento em que o campo parecia pronto para um período de descobertas explosivas.

O Grande Colisor de Hádrons (LHC) estava em construção na fronteira entre a Suíça e a França, e os teóricos acreditavam que ele descobriria um grande número de novas partículas. Mas, além da histórica descoberta do bóson de Higgs em 2012, o LHC não encontrou nenhuma outra partícula elementar. Além disso, seus dados descartaram muitos candidatos potenciais para partículas virtuais que poderiam ter inflado o momento magnético do múon. O LHC, no entanto, não descartou todas as explicações possíveis para a discrepância. Dentre estas explicações, está a de que não exista apenas um tipo de bósons de Higgs, e sim pelo menos dois.

Na ocasião do experimento de Brookhaven, o valor experimental para o momento magnético do múon teve que ser comparado com as previsões teóricas que vieram com incertezas relativamente grandes. Mas enquanto a melhor medição experimental de g–2 não mudou em 15 anos, a teoria evoluiu. 

No ano passado, uma grande colaboração, reuniu várias equipes de pesquisadores, cada um especializado em um tipo de partícula virtual, e publicou um valor de “consenso” para a constante fundamental. A discrepância entre os valores teóricos e experimentais não mudou. Também no ano passado, uma equipe chamada Colaboração Budapest-Marseille-Wuppertal sugeria um valor teórico para g-2 mais próximo do experimental. Ela se concentrou em uma fonte de incerteza na teoria, proveniente de versões virtuais de glúons, partículas transmissoras de força nuclear forte. Se seus resultados estiverem corretos, a lacuna entre a teoria e o experimento pode acabar não existindo. 

Os resultados podem não resolver a questão ainda. Graças a atualizações no aparelho, a equipe espera melhorar a precisão do g-2 em quatro vezes, em comparação com o experimento de Brookhaven. Mas, até agora, analisou apenas um ano dos dados coletados desde 2017, não o suficiente para que a margem de erro seja mais estreita. Ainda assim, se a medição for muito parecida com a original, a confiança neste resultado vai melhorar. Se o Fermilab finalmente confirmar a surpresa de Brookhaven, a comunidade científica provavelmente exigirá outra confirmação independente. Isso poderia vir de uma técnica desenvolvida no Complexo de Pesquisa do Acelerador de Prótons do Japão (J-PARC), que mede o momento magnético do múon de modo radicalmente diferente.

Fonte: Scientific American