sexta-feira, 17 de setembro de 2021

Descoberta partícula exótica de longa vida

O experimento LHCb (Large Hadron Collider beauty) no CERN (European Organization for Nuclear Research) apresentou uma nova descoberta na Conferência da Sociedade Física Europeia sobre Física de Altas Energias.

© CERN (tetraquark Tcc+)

A nova partícula descoberta pelo LHCb, rotulada como Tcc+, é um tetraquark, um hádron exótico contendo dois quarks e dois antiquarks. É a partícula de matéria exótica de vida mais longa já descoberta. 

Os quarks são os blocos de construção fundamentais a partir dos quais a matéria é construída. Eles se combinam para formar hádrons, ou seja, bárions, como o próton e o nêutron, que consistem em três quarks, e os mésons, que são formados como pares quark-antiquark. 

Nos últimos anos, vários dos chamados hádrons exóticos, partículas com quatro ou cinco quarks, em vez dos convencionais dois ou três, foram encontrados. A descoberta é de um hádron exótico particularmente único. A nova partícula contém dois quarks charm e um antiquark up e um antiquark down. Vários tetraquarks foram descobertos nos últimos anos (incluindo um com dois quarks charm e dois antiquarks charm), mas este é o primeiro que contém dois quarks charm, sem antiquarks charm para equilibrá-los.

Partículas contendo um quark charm e um antiquark charm têm “charmo culto”, o número quântico charm de toda a partícula é igual a zero. Aqui, o número quântico charm soma dois, portanto, tem o dobro de charm!

O conteúdo quark do Tcc+ possui outras características interessantes além de ser um charm aberto. É a primeira partícula a ser encontrada pertencente a uma classe de tetraquarks com dois quarks pesados e dois antiquarks leves. Estas partículas decaem ao se transformar em um par de mésons, cada um formado por um dos quarks pesados e um dos antiquarks leves.

De acordo com algumas previsões teóricas, a massa dos tetraquarks deste tipo deve ser muito próxima da soma das massas dos dois mésons. Tal proximidade em massa torna o decaimento “difícil”, resultando em uma vida útil mais longa da partícula e, de fato, a partícula Tcc+ é o hádron exótico de vida mais longa encontrado até hoje. 

A descoberta abre caminho para a busca por partículas mais pesadas do mesmo tipo, com um ou dois quarks charm substituídos por quarks bottom. A partícula com dois quarks bottom é especialmente interessante: de acordo com os cálculos, sua massa deveria ser menor que a soma das massas de qualquer par de mésons B. Isto tornaria o decaimento não apenas improvável, mas realmente proibido: a partícula não seria capaz de decair por meio da interação forte e teria que fazê-lo por meio da interação fraca, o que tornaria seu tempo de vida várias ordens de magnitude mais longo do que o de qualquer hádron exótico observado anteriormente. 

O novo tetraquark Tcc+ é um alvo atraente para estudos futuros. As partículas nas quais ele decai são comparativamente fáceis de detectar e, em combinação com a pequena quantidade de energia disponível no decaimento, isto leva a uma excelente precisão em sua massa e permite o estudo dos números quânticos desta partícula fascinante. Isto, por sua vez, pode fornecer um teste rigoroso para modelos teóricos existentes e pode até mesmo permitir que efeitos anteriormente inalcançáveis sejam sondados. 

Fonte: CERN

terça-feira, 31 de agosto de 2021

Gerando matéria colidindo partículas de luz

Dois experimentos realizados no laboratório Laboratório Nacional de Brookhaven, nos EUA, forneceram evidências definitivas para dois fenômenos da físicas previstos teoricamente há quase oitenta anos.

© Brookhaven National Laboratory (detector STAR do RHIC)

As descobertas foram feitas por meio de uma análise detalhada de mais de 6 mil pares de elétrons e pósitrons produzidos em colisões de partículas no acelerador de partículas Relativistic Heavy Ion Collider (RHIC). 

Em um primeiro experimento, cientistas provaram que pares de elétrons e pósitrons, partículas de matéria e antimatéria, podem ser criados diretamente pela colisão de fótons muito energéticos. Esta conversão da luz com muita energia em matéria é uma consequência direta da famosa equação E = mc^2 de Einstein, segundo a qual energia e matéria (ou massa) são intermutáveis. Por exemplo, usinas nucleares convertem regularmente matéria em energia. Agora, os cientistas converteram a energia da luz diretamente em matéria em uma única etapa. 

Já o segundo experimento mostrou pela primeira vez que a curvatura do caminho da luz que viaja através de um campo magnético no vácuo depende do modo como a luz é polarizada. Este desvio dependente da polarização, também conhecido como birrefringência, ocorre quando a luz viaja através de certos materiais. O efeito é semelhante à dupla refração dependente do comprimento de onda que divide a luz branca nas demais cores do espectro.

Para a realização de ambos os experimentos, as capacidades do detector STAR do RHIC , o Solenoid Tracker no RHIC, foram essenciais. O equipamento é capaz de medir a distribuição angular das partículas produzidas em colisões de íons numa velocidade próxima à da luz. 

No ano de 1934, os físicos Gregory Breit e John A. Wheeler descreveram a possibilidade hipotética de colidir partículas de luz para criar pares de elétrons e suas contrapartes de antimatéria, conhecidas como pósitrons. Eles já percebiam que isso era quase impossível de fazer. Mas Breit e Wheeler propuseram uma alternativa: acelerar íons pesados. E a alternativa deles é exatamente o que está sendo feito no RHIC.

Um íon de ouro, com 79 prótons, carrega uma poderosa carga positiva. Acelerar este íon a velocidades muito altas gera um poderoso campo magnético. Este gira em torno da partícula em alta velocidade enquanto ela viaja. É como uma corrente fluindo através de um fio. Se a velocidade for alta o suficiente, a força do campo magnético circular pode ser igual à força do campo elétrico perpendicular. E este arranjo de campos consiste no fóton, uma “partícula” quantizada de luz. Então, quando os íons estão se movendo perto da velocidade da luz, há um monte de fótons ao redor do núcleo de ouro. Eles o acompanham como uma nuvem.

No RHIC, os cientistas aceleram os íons de ouro a 99,995% da velocidade da luz em dois anéis aceleradores. Surgem duas nuvens de fótons movendo-se em direções opostas com energia e intensidade suficientes para que, quando os dois íons passem um pelo outro sem colidir, estes campos de fótons possam interagir. 

Os físicos do STAR rastrearam as interações e procuraram os pares elétron-pósitron previstos. Outros cientistas tentaram criar pares elétron-pósitron a partir de colisões de luz usando lasers poderosos, ou seja, feixes focalizados de luz intensa. Mas os fótons individuais dentro destes feixes intensos ainda não têm energia suficiente. 

Anteriormente, um experimento no SLAC National Accelerator Laboratory em 1997 foi bem-sucedido usando um processo não linear. Os cientistas primeiro tiveram que aumentar a energia dos fótons em um feixe de laser, para, em seguida, provocar uma colisão com um poderoso feixe de elétrons. Desta maneira, as colisões dos fótons energizados em um enorme campo eletromagnético criado por laser produziram matéria e antimatéria.

A capacidade do STAR de medir as minúsculas refrações duplas de elétrons e pósitrons, produzidas quase que consecutivamente nestes eventos, também possibilitou que os físicos estudassem como as partículas de luz interagem com os poderosos campos magnéticos gerados pelos íons acelerados. 

“A nuvem de fótons em torno dos íons de ouro em um dos feixes de RHIC dispara na direção do forte campo magnético circular produzido no outro feixe. Observar a distribuição das partículas que saem da nuvem mostra como a luz polarizada interage com o campo magnético. 

Werner Heisenberg e Hans Heinrich Euler, em 1936, e John Toll, na década de 1950, previram que um vácuo do espaço vazio poderia ser polarizado por um poderoso campo magnético. Este vácuo polarizado, então, deveria desviar os caminhos dos fótons dependendo da polarização destes. Toll, em sua tese, também detalhou como a absorção de luz por um campo magnético depende da polarização e de sua conexão com o índice de refração da luz no vácuo. Esta birrefringência foi observada em muitos tipos de cristais. Além disso, um recente relatório registrou a curvatura da luz proveniente de uma estrela de nêutrons. É provável que o fenômeno tenha acontecido devido a interações dessa luz com o campo magnético da estrela. Mas, até o momento, nenhum experimento com base na Terra havia conseguido detectar a ocorrência da birrefringência no vácuo.

No RHIC, os cientistas mediram como a polarização da luz afetava se a luz era “absorvida” pelo campo magnético. Isso é semelhante ao modo como os óculos de sol polarizados bloqueiam a passagem de certos raios se eles não corresponderem à polarização das lentes. No caso dos óculos de sol, além de vermos uma menor quantidade de luz passar, é possível, a princípio, medir um aumento na temperatura do material da lente à medida que ele absorve a energia da luz bloqueada.

No RHIC, a energia luminosa absorvida é o que cria os pares elétron-pósitron. Os produtos produzidos pelas interações fóton-fóton no RHIC, possibilita verificar que a distribuição angular dos produtos depende do ângulo de polarização da luz. Isso indica que a absorção da luz depende de sua polarização. 

Os resultados foram publicados no periódico Physical Review Letters.

Fonte: Scientific American

segunda-feira, 19 de julho de 2021

Efeito fotoelétrico aplicado em radioterapia

Pesquisadores descobriram que efeito fotoelétrico, explicado por Einstein em 1905, pode potencializar a destruição de tumores via radioterapia.

© U. de Kyoto (moléculas de iodo ajudam a destruir tumores)

A radioterapia é um dos principais tratamentos oncológicos hoje disponíveis. No entanto, ela sofre com um problema de eficácia. Para que a irradiação de raios X possa funcionar, é necessário que haja moléculas de oxigênio. Quando os raios X chegam ao interior da célula, eles induzem reações entre o oxigênio e o DNA que podem danificar o tumor, impedindo seu crescimento e multiplicação. Porém, na região central dos tumores, os níveis de oxigênio são baixos, devido à falta de vasos sanguíneos.

Há anos, cientistas do Instituto de Ciências Integradas de Material Celular da Universidade de Kyoto (iCeMS), junto a colaboradores japoneses e americanos, tentam superar este problema e encontrar maneiras mais diretas e eficazes de tratar o DNA de células de câncer empregando princípios da física quântica.

Em trabalhos anteriores, os pesquisadores mostraram que nanopartículas carregadas de gadolínio podem matar células cancerosas quando irradiadas com 50,25 keV de radiação síncrotron. Para realizar o estudo atual, eles projetaram nanopartículas orgânicas porosas contendo iodo. O iodo é mais barato do que o gadolínio e libera elétrons com níveis menores de energia. 

No experimento, os pesquisadores dispersaram suas nanopartículas sobre estruturas esféricas de tecido que continham células cancerosas. As estruturas esferoides foram depois submetidas à irradiação por raios X com intensidade de 33,2 keV durante 30 minutos. 

O iodo libera elétrons que rompem o DNA do tumor, levando à morte celular. O resultado foi a destruição completa dos tumores em três dias. Após fazerem experimentações sistemáticas nos níveis de energia, eles foram capazes de demonstrar que o efeito ideal de destruição do tumor ocorre com o raio X de 33,2 keV.

A exposição de um metal à luz leva à liberação de elétrons, um fenômeno chamado efeito fotoelétrico. Em 1905, Albert Einstein explicou este fenômeno, onde foi agraciado com o Prêmio Nobel pela descoberta. esta pesquisa fornece evidências que sugerem que é possível reproduzir este efeito dentro das células cancerosas.

Análises posteriores mostraram que as nanopartículas foram absorvidas pelas células tumorais. Com a quantidade certa de energia, o iodo liberou elétrons que causaram quebras na fita dupla no DNA nuclear e, assim provocaram a morte celular.

Este estudo é um exemplo importante de como um fenômeno da física quântica pode ser empregado dentro de uma célula cancerosa. Parece que uma nuvem de elétrons de baixa energia é gerada perto do DNA. Isto causa danos difíceis de serem reparados e leva à morte da célula.

Agora, a equipe buscará entender como os elétrons são liberados dos átomos de iodo após estes serem expostos aos raios X. Além disso, os pesquisadores querem inserir o iodo dentro do DNA, para aumentar a sua eficácia, e testar as nanopartículas em modelos de câncer em ratos. 

As recentes descobertas foram publicadas na revista Scientific Reports.

Fonte: Scientific American

quinta-feira, 1 de abril de 2021

Revelando novas partículas elementares

Após duas década de espera, que incluíram uma longa batalha para obter financiamento e uma mudança para o outro lado do continente, um experimento sobre múons está prestes a revelar seus resultados.

© Fermilab (experimento Muón g-2)

Estas são partículas semelhantes ao elétron, porém de maior massa e mais instáveis. Os físicos esperam que as mais recentes medidas sobre o magnetismo do múon confirme achados anteriores que podem levar à descoberta de novas partículas.

A divulgação da conclusões do estudo está prevista para o dia 7 de abril. A pesquisa, intitulada experimento Múon g–2, que agora acontece no Fermilab (Fermi National Accelerator Laboratory), um laboratório especializado em física de partículas de alta energia localizado nos EUA, já havia sido realizado anteriormente entre 1997 e 2001 no Laboratório Nacional de Brookhaven em Long Island, Nova York.

Os resultados originais, anunciados em 2001 e finalizados em 2006, geraram controvérsia entre os físicos. Eles revelaram que o momento magnético do múon, que indica o tamanho do campo magnético gerado, é levemente maior do que o previsto pela teoria. Caso estes resultados sejam confirmado, no anúncio da próxima semana ou em experimentos futuros, eles podem revelar a existência de novas partículas elementares.

O experimento Múon g–2 consegue medir o momento magnético da partícula ao promover sua movimentação em um círculo de 15 metros de diâmetro. Um imã poderoso mantém os múons em sua rota circular, ao mesmo tempo em que causa a rotação de seus polos magnéticos. Quanto maior for o momento magnético da partícula, mais rápido ela irá rodar, como um pião em precessão.

A discrepância em relação à teoria encontrada pelo experimento original era pequena. À primeira vista, a física quântica prevê que partículas elementares, como o múon e o elétron, possuem um momento magnético exatamente igual a 2 (a unidade de medida depende da partícula). No entanto, cálculos mais completos revelam variações deste valor, já que o espaço vazio jamais está completamente vazio. O espaço em volta do múon contém uma diversidade de partículas virtuais, versões efêmeras de partículas reais que aparecem e desaparecem continuamente, algo que altera o campo magnético do múon. 

Desta maneira, quanto maior for a variedades das partículas, maior será o impacto de suas versões virtuais no momento magnético. Isto significa que uma medição de alta precisão pode revelar evidências indiretas da existência de novas partículas, anteriormente desconhecidas aos cientistas. 

O momento magnético obtido é apenas levemente diferente de 2. Esta diferença é o que chamada g–2 . Em Brookhaven, os físicos descobriram que g–2 é igual a 0.0023318319. À época, este valor era maior do que a estimativa da contribuição das partículas virtuais conhecidas. A precisão da medição não era alta o suficiente para permitir que se afirmasse, com confiança, que a discrepância era real. Os resultados também vieram em um momento em que o campo parecia pronto para um período de descobertas explosivas.

O Grande Colisor de Hádrons (LHC) estava em construção na fronteira entre a Suíça e a França, e os teóricos acreditavam que ele descobriria um grande número de novas partículas. Mas, além da histórica descoberta do bóson de Higgs em 2012, o LHC não encontrou nenhuma outra partícula elementar. Além disso, seus dados descartaram muitos candidatos potenciais para partículas virtuais que poderiam ter inflado o momento magnético do múon. O LHC, no entanto, não descartou todas as explicações possíveis para a discrepância. Dentre estas explicações, está a de que não exista apenas um tipo de bósons de Higgs, e sim pelo menos dois.

Na ocasião do experimento de Brookhaven, o valor experimental para o momento magnético do múon teve que ser comparado com as previsões teóricas que vieram com incertezas relativamente grandes. Mas enquanto a melhor medição experimental de g–2 não mudou em 15 anos, a teoria evoluiu. 

No ano passado, uma grande colaboração, reuniu várias equipes de pesquisadores, cada um especializado em um tipo de partícula virtual, e publicou um valor de “consenso” para a constante fundamental. A discrepância entre os valores teóricos e experimentais não mudou. Também no ano passado, uma equipe chamada Colaboração Budapest-Marseille-Wuppertal sugeria um valor teórico para g-2 mais próximo do experimental. Ela se concentrou em uma fonte de incerteza na teoria, proveniente de versões virtuais de glúons, partículas transmissoras de força nuclear forte. Se seus resultados estiverem corretos, a lacuna entre a teoria e o experimento pode acabar não existindo. 

Os resultados podem não resolver a questão ainda. Graças a atualizações no aparelho, a equipe espera melhorar a precisão do g-2 em quatro vezes, em comparação com o experimento de Brookhaven. Mas, até agora, analisou apenas um ano dos dados coletados desde 2017, não o suficiente para que a margem de erro seja mais estreita. Ainda assim, se a medição for muito parecida com a original, a confiança neste resultado vai melhorar. Se o Fermilab finalmente confirmar a surpresa de Brookhaven, a comunidade científica provavelmente exigirá outra confirmação independente. Isso poderia vir de uma técnica desenvolvida no Complexo de Pesquisa do Acelerador de Prótons do Japão (J-PARC), que mede o momento magnético do múon de modo radicalmente diferente.

Fonte: Scientific American

sábado, 13 de fevereiro de 2021

Partículas fundamentais ainda desconhecidas

Um experimento revelou um inesperado comportamento quântico em um material isolante, e pode indicar a existência de uma nova classe de partículas ainda desconhecida.

© Princeton University (isolador de ditelureto de tungstênio)

O fenômeno quântico em questão é conhecido como oscilação quântica, e foi observado em um corpo isolador feito de um material chamado de ditelureto de tungstênio. A teoria quântica atualmente aceita diz que materiais isoladores não poderiam apresentar nenhuma forma de comportamento quântico. Em geral, esta oscilação pode ser observada em metais.

“Se nossas interpretações estiverem corretas, estamos vendo uma forma fundamentalmente nova de matéria quântica,” diz Sanfeng Wu, professor assistente de física na Universidade Princeton. “Estamos agora ponderando que pode existir um mundo quântico inteiramente novo, escondido nos isoladores. É possível que tenhamos deixado de notar isso durante as últimas décadas.” 

Durante muito tempo, a possibilidade de observar oscilações quânticas foi considerada como uma característica que distinguia metais e isoladores. Nos metais, os elétrons apresentam elevada mobilidade, e a resistividade do material, isto é, a resistência à corrente elétrica, é fraca. Quase um século atrás, os pesquisadores observaram que a combinação de baixas temperaturas com um campo magnético pode fazer com que os elétrons passem de um estado “clássico” para um estado quântico, causando oscilações na resistividade do metal. 

Já nos corpos capazes de agir como isoladores os elétrons não conseguem se deslocar, pois os materiais de que são feitos possuem uma resistividade muito alta. As experiências sugeriam que não era possível ocorrer oscilações quânticas neles, não importando a intensidade de campo magnético aplicado. 

A descoberta foi feita quando os pesquisadores estudavam o material ditelureto de tungstênio, que eles manipularam de modo a formar um corpo bidimensional. O material foi preparado utilizando-se uma fita adesiva padrão de forma a conseguir raspar cada vez mais o objeto, buscando moldar o que é chamado de monocamada, que nada mais é do que uma camada única e muito fina, feita de átomos. 

Os pesquisadores constataram que quando o ditelureto de tungstênio é manipulado para um formato um pouco mais espesso, ele se comporta como um metal. Mas, assim que é reduzido a uma monocamada, ele apresenta uma poderosa capacidade de agir como isolante. 

Os pesquisadores então começaram a medir a resistividade da monocamada de ditelureto de tungstênio sob campos magnéticos. E se surpreenderam ao constatar que a resistividade do isolador, apesar de muito grande, começou a oscilar quando o campo magnético aumentava, indicando a mudança para o estado quântico, ou seja, o material, um isolador muito poderoso, passou a exibir a propriedade quântica mais característica de um metal.

Atualmente não existem teorias para explicar esse fenômeno. Wu e seus colegas apresentaram uma hipótese provocativa. Eles sugerem que o experimento fez com que os elétrons se organizassem, e destas interações estariam surgindo novas partículas, que nomearam como “férmions neutros”, por não possuírem carga elétrica. Seriam estas partículas as responsáveis por criar esse efeito quântico altamente notável. 

Férmion é o nome dado a uma categoria de partículas na qual estão incluídos os elétrons. Nos materiais com propriedades quânticas, os férmions podem ser tanto elétrons, dotados de carga negativa, ou “buracos” dotados de carga positiva responsáveis pela condução da corrente elétrica. Isto é, quando o material é um isolador elétrico, estes férmions carregados não conseguem se mover livremente. 

Entretanto, partículas que sejam neutras poderiam teoricamente existir em um isolador e se deslocar através dele. Os resultados experimentais conflitam com todas as teorias atuais que se baseiam na existência de férmions dotados de carga, mas poderiam ser explicados pela presença de férmions sem carga. 

A equipe de Princeton planeja novas investigações sobre as propriedades quânticas do ditelureto de tungstênio. Eles estão interessados especialmente em determinar se a hipotética existência de uma nova partícula é válida.

A descoberta foi apresentada na revista Nature.

Fonte: Scientific American

terça-feira, 6 de outubro de 2020

Buracos negros e o centro da Via Láctea

O Prêmio Nobel de Física de 2020 foi concedido a três pesquisadores que fizeram descobertas sobre buracos negros, anunciou hoje a Academia Real das Ciências da Suécia.


© NASA (ilustração de região próxima de um buraco negro)

Roger Penrose, da Universidade de Oxford vai receber metade do prêmio de 10 milhões de coroas suecas (6,2 milhões de reais) por ter provado, em 1965, que a teoria geral da relatividade leva à formação de buracos negros. A outra metade da premiação foi concedida ao alemão Reinhard Genzel e à americana Andrea Ghez, que lideraram dois grupos de astrônomos na descoberta de um objeto invisível e extremamente pesado que governa as órbitas das estrelas no centro de nossa galáxia. Um buraco negro supermassivo é a única explicação atualmente conhecida.

O cientista Roger Penrose usou métodos matemáticos engenhosos para provar que os buracos negros são uma consequência direta da teoria geral da relatividade de Albert Einstein. O próprio Einstein não acreditava que buracos negros realmente existissem, estes monstros supermassivos ​​que capturam tudo que entra neles. Nada pode escapar, nem mesmo a luz.

Em janeiro de 1965, dez anos após a morte de Einstein, Roger Penrose provou que os buracos negros realmente podem se formar e os descreveu em detalhes; no fundo, os buracos negros escondem uma singularidade em que cessam todas as leis conhecidas da natureza. Seu artigo inovador ainda é considerado a contribuição mais importante para a teoria geral da relatividade desde Einstein.

Reinhard Genzel, diretor do Instituto Max Planck de Física Extraterrestre, na Alemanha, e professor da Universidade da Califórnia, nos EUA, e Andrea Ghez, professora da Universidade da Califórnia, lideram dois grupos de astrônomos que, desde o início dos anos 1990, se concentra em estudar uma região no centro da Via Láctea, onde está localizado o buraco negro supermassivo, denominado Sagitário A*.


© UCLA (animação de estrelas girando ao redor de buraco negro)

Uma animação das órbitas estelares no centro de 0,5 segundos de arco. Imagens tiradas dos anos de 1995 a 2016 são usadas para rastrear estrelas específicas orbitando o buraco negro proposto no centro da Galáxia. Estas órbitas, Aplicando as Leis de Kepler, estas órbitas fornecem a melhor evidência de um buraco negro supermassivo. Especialmente importante é a estrela S0-2, pois foi observada por mais de um período orbital completo, que é de apenas 16,17 anos. Veja também a notícia: Estrela "dançando" em torno de buraco negro supermassivo.

Usando os maiores telescópios do mundo, Genzel e Ghez desenvolveram métodos para ver através das enormes nuvens de gás interestelar e poeira até o centro da Via Láctea. Estendendo os limites da tecnologia, eles refinaram novas técnicas para compensar as distorções causadas pela atmosfera da Terra, construindo instrumentos exclusivos e se comprometendo com pesquisas de longo prazo. Seu trabalho pioneiro nos deu a evidência mais convincente de um buraco negro supermassivo no centro da Via Láctea.

Desta maneira foi possível mapear as órbitas das estrelas mais brilhantes próximas ao centro da nossa Galáxia e encontraram um objeto invisível extremamente pesado que puxa este amontoado de estrelas, fazendo-as orbitar em velocidades vertiginosas. Cerca de quatro milhões de massas solares estão reunidas em uma região não maior do que nosso Sistema Solar.

“As descobertas dos laureados deste ano abriram novos caminhos no estudo de objetos compactos e supermassivos. Mas estes objetos exóticos ainda colocam muitas questões que imploram por respostas e motivam pesquisas futuras. Não apenas perguntas sobre sua estrutura interna, mas também perguntas sobre como testar nossa teoria da gravidade sob as condições extremas nas imediações de um buraco negro”, disse David Haviland, presidente do Comitê Nobel de Física.

Fonte: The Royal Swedish Academy of Sciences

terça-feira, 4 de agosto de 2020

Bóson de Higgs decai em dois múons

Na 40ª conferência do International Conference on High Energy Physics (ICHEP), os experimentos do ATLAS (A Toroidal LHC ApparatuS) e CMS (Compact Muon Solenoid) anunciaram novos resultados que mostram que o bóson de Higgs se decompõe em dois múons.


© CMS (decaimento do bóson de Higgs gerando dois múons) 

O múon é uma cópia mais pesada do elétron, com carga elétrica -1 e spin 1⁄2, uma das partículas elementares que constituem o conteúdo de matéria do Universo. Enquanto os elétrons são classificados como uma partícula de primeira geração, os múons pertencem à segunda geração. O processo físico do bóson de Higgs decaindo em múons é um fenômeno raro, pois apenas um bóson de Higgs em 5.000 decai em múons. Esses novos resultados têm extrema importância para a física fundamental, porque indicam pela primeira vez que o bóson de Higgs interage com partículas elementares de segunda geração.

Os físicos do CERN estudam o bóson de Higgs desde a sua descoberta em 2012, a fim de investigar as propriedades dessa partícula muito especial. O bóson de Higgs, produzido a partir de colisões de prótons no Large Hadron Collider (LHC), se desintegra, conhecido como decaimento, quase instantaneamente em outras partículas. Um dos principais métodos de estudo das propriedades do bóson de Higgs é analisando como ele se decompõe nas várias partículas fundamentais e na taxa de desintegração.

O CMS obteve evidência desse decaimento com 3 sigma, o que significa que a chance de ver o bóson de Higgs decaindo em um par de múons devido à flutuação estatística é menor que um em 700. O resultado de dois sigma do ATLAS significa que as chances são de um em 40. A combinação de ambos os resultados aumentaria a significância bem acima de 3 sigma e fornece fortes evidências para a deterioração do bóson de Higgs em dois múons, de acordo com a previsão do Modelo Padrão.

O bóson de Higgs é a manifestação quântica do campo de Higgs, que dá massa às partículas elementares com as quais ele interage, através do mecanismo de Brout-Englert-Higgs. Ao medir a taxa na qual o bóson de Higgs decai em diferentes partículas, é possível inferir a força de sua interação com o campo de Higgs: quanto maior a taxa de decaimento em uma determinada partícula, maior a sua interação com o campo. Até agora, as experiências ATLAS e CMS observaram o decaimento do bóson de Higgs em diferentes tipos de bósons, como W e Z, e férmions mais pesados, como o lépton tau e os quarks top e bottom. A interação com os quarks mais pesados, superior e inferior, foi medida em 2018. Os múons são muito mais leves em comparação e sua interação com o campo de Higgs é mais fraca. Portanto, as interações entre o bóson de Higgs e os múons não haviam sido vistas anteriormente no LHC.

O que torna esses estudos ainda mais desafiadores é que, no LHC, para cada bóson de Higgs previsto decaindo em dois múons, existem milhares de pares de múons produzidos por outros processos que imitam a assinatura experimental esperada. A assinatura característica do decaimento do bóson de Higgs para os múons é um pequeno excesso de eventos que se agrupam perto de uma massa de 125 GeV, que é a massa do bóson de Higgs. Isolar as interações entre o bóson de Higgs e o par de múons não é tarefa fácil. Para isso, os dois experimentos medem a energia, o momento e os ângulos dos candidatos a múons no decaimento do bóson de Higgs. Além disso, a sensibilidade das análises foi aprimorada por métodos como estratégias sofisticadas de modelagem de segundo plano e outras técnicas avançadas, como algoritmos de aprendizado de máquina. O CMS combinou quatro análises separadas, cada uma otimizada para categorizar eventos físicos com possíveis sinais de um modo de produção de bóson de Higgs específico. A ATLAS dividiu seus eventos em 20 categorias direcionadas a modos específicos de produção do bóson de Higgs.

Os resultados, até agora consistentes com as previsões do Modelo Padrão, usaram o conjunto completo de dados coletados na segunda execução do LHC. Com mais dados a serem gravados da próxima corrida do acelerador de partículas e com o LHC de alta luminosidade, as colaborações do ATLAS e do CMS esperam atingir a sensibilidade (5 sigma) necessária para estabelecer a descoberta do decaimento do bóson de Higgs para dois múons e restringir possíveis teorias da física além do modelo padrão que afetariam esse modo de decaimento do bóson de Higgs.

Fonte: CERN

terça-feira, 22 de outubro de 2019

“Paradoxo dos gêmeos” em nível quântico

Um experimento recentemente proposto, que conecta um paradoxo concebido por Einstein à mecânica quântica, pode resultar em relógios e sensores mais precisos.

© M. Zych (relógio movendo-se em sobreposição de velocidades)

Magdalena Zych, física da Universidade de Queensland, na Austrália, e principal autora do estudo, conta que a colaboração internacional teve como objetivo testar o paradoxo dos gêmeos de Einstein usando partículas quânticas em estado de “sobreposição”.

O paradoxo dos gêmeos é uma das previsões mais contra-intuitivas da teoria da relatividade. O tempo pode passar em velocidades diferentes para pessoas em diferentes distâncias em relação a uma massa enorme, ou para pessoas viajando em velocidades distintas.

Por exemplo: se pegarmos um relógio de referência, distante de qualquer objeto massivo, um relógio mais próximo de uma massa ou um relógio se movendo em alta velocidade irá mostrar a passagem do tempo mais lentamente.

Isso cria um paradoxo dos gêmeos, em que um dos gêmeos vai para uma viagem em alta velocidade enquanto o outro fica para trás. Quando os gêmeos se encontrarem novamente, o gêmeo viajante será muito mais jovem, pois diferentes períodos de tempo se passaram para cada um deles.

É um efeito surpreendente, explorado em filmes populares como Interstellar, mas também foi verificado por experimentos do mundo real e é levado em consideração para que a tecnologia do GPS funcione.

A equipe incluiu pesquisadores da Universidade de Ulm e da Universidade de Hannover, na Alemanha, e descobriu como usar tecnologia a laser avançada para simular uma versão quântica do paradoxo dos gêmeos de Einstein.

Na versão quântica, em vez de gêmeos, haverá apenas uma partícula viajando em uma sobreposição quântica.

Uma sobreposição quântica significa que a partícula está em dois locais ao mesmo tempo, em cada um deles com uma probabilidade, mas ainda assim é diferente de colocar a partícula em um ou em outro local aleatoriamente. É outra maneira de um objeto existir, permitida apenas pelas leis da física quântica.

“A ideia é colocar uma partícula em sobreposição em duas trajetórias com velocidades diferentes, e verificar se uma quantidade de tempo diferente passa para cada uma delas, como no paradoxo dos gêmeos,” disse Zych.

“Se nosso entendimento da teoria quântica e da relatividade estiver correto, quando as trajetórias sobrepostas se encontrarem, o viajante quântico estará em sobreposição de ser mais velho e mais novo que ele próprio. Isso deixaria uma assinatura inconfundível nos resultados do experimento, e é isso que esperamos que seja encontrado quando o experimento for realizado no futuro.”

“Esse entendimento pode levar a tecnologias avançadas que permitirão aos físicos construir sensores e relógios mais precisos, que poderão, potencialmente, ser partes fundamentais de futuros sistemas de navegação, veículos autônomos e redes de alerta precoce de terremotos”.

O experimento por si só também responderá a algumas questões ainda em aberto da física moderna.
Um exemplo dessas questões é: o tempo pode exibir comportamento quântico ou é algo fundamentalmente clássico?

Esta questão é provavelmente crucial para o ‘Santo Graal’ da física teórica: ou seja, encontrar uma teoria conjunta que relacione os fenômenos quânticos e gravitacionais.

Um artigo foi publicado na revista Science Advances.

Fonte: Scientific American

terça-feira, 8 de outubro de 2019

Novas perspectivas sobre o Universo

Os cientistas James Peebles, Michel Mayor e Didier Queloz levaram o Prêmio Nobel de Física de 2019.
© Nobel Prize/Johan Jarnestad (explorando o cosmos)

O anúncio foi divulgado na manhã desta terça-feira pelo comitê da Academia Real de Ciências da Suécia, em Estocolmo. Na avaliação da instituição, o trabalho dos três físicos introduziu uma nova compreensão da história e estrutura do Universo através das teorias de cosmologia física desenvolvidas por Peebles e a descoberta de um exoplaneta por Mayor e Queloz.

O Prêmio Nobel de Física deste ano recompensa nova compreensão da estrutura do Universo e a primeira descoberta de um planeta em órbita n uma estrela do tipo solar fora do nosso Sistema Solar.
As ideias de James Peebles sobre cosmologia física enriqueceu todo o campo de pesquisa e lançou as bases para a transformação da cosmologia nos últimos cinquenta anos, da especulação à ciência. Seu referencial teórico, desenvolvido desde meados da década de 1960, é a base de estudos contemporâneos sobre o Universo.

O modelo do Big Bang descreve o Universo a partir dos primeiros momentos, quase 14 bilhões de anos atrás, quando estava extremamente quente e denso. Desde então, o Universo vem se expandindo, tornando-se maior e mais frio. Após 400.000 anos do Big Bang, o Universo se tornou transparente e os raios de luz foram capazes de viajar através espaço. Ainda hoje, essa radiação antiga está por toda parte, onde muitos dos segredos do Universo estão escondidos.

A cosmologia moderna é baseada na teoria da relatividade geral de Albert Einstein e assume uma era inicial, o Big Bang, quando o Universo era extremamente quente e denso. Um pouco menos de 400.000 anos após o Big Bang, a temperatura diminuiu para cerca de 3.000 K, permitindo que os elétrons se combinassem com núcleos para a formação de átomos.

Porque não sobraram partículas carregadas que pudessem interagir facilmente com os fótons, o Universo se tornou transparente à luz. Esta radiação é agora visível como a Cosmic Microwave Background  (CMB). Devido ao desvio para o vermelho cosmológico, sua temperatura atualmente é de penas 2,7K, um fator de cerca de 1.100 menores desde a dissociação de matéria e radiação. A radiação cósmica de fundo de micro-ondas consiste de ondas eletromagnéticas na frequência de rádio que permeiam todo o espaço.

Por intermédio de cálculos teóricos, James Peebles foi capaz de interpretar esses traços desde a infância do Universo e descubriu novos processos físicos.

Os resultados nos mostraram um Universo em que apenas 5% de seu conteúdo é conhecido, compondo a matéria ordinária que constituída por estrelas, planetas, árvores e nós. O restante, 95%, é desconhecido, perfazendo a matéria escura e energia escura. Isso é um mistério e um desafio à física moderna.

Em outubro de 1995, Michel Mayor e Didier Queloz anunciaram a primeira descoberta de um planeta fora do nosso sistema solar, um exoplaneta, orbitando uma estrela do tipo solar em nossa galáxia, a Via Láctea. No Observatório Haute-Provence, no sul da França, usando instrumentos feitos sob medida, eles foram capazes de ver o exoplaneta 51 Pegasi b, uma bola gasosa comparável com o maior gigante gasoso do Sistema Solar, o planeta Júpiter.

Esta descoberta iniciou uma revolução na astronomia e mais de 4.000 exoplanetas já foram encontrados na Via Láctea. Mundos novos e estranhos ainda estão sendo descobertos, com uma incrível variedade de tamanhos, formas e órbitas. Eles desafiam nossas ideias preconcebidas sobre sistemas planetários e estão forçando os cientistas a revisar suas teorias dos processos físicos por trás das origens dos planetas. Com vários projetos planejados para começar a procurar exoplanetas, podemos encontrar uma resposta para a eterna questão de saber se existe vida lá fora.

Os Laureados deste ano transformaram nossos pensamentos sobre o cosmos. Enquanto as descobertas teóricas de James Peebles contribuiu para a nossa compreensão de como o Universo evoluiu após o Big Bang, Michel Mayor e Didier Queloz explorou nossos bairros cósmicos em busca de planetas desconhecidos. Suas descobertas mudou para sempre nossas concepções do mundo.

James Peebles, professor da Universidade de Princeton, EUA, levará metade do prêmio de 9 milhões de coroas suecas, o equivalente a R$ 3,7 milhões. O restante será dividido entre Michel Mayor, docente da Universidade de Genebra, e Didier Queloz, que integra a mesma instituição, além da Universidade de Cambridge, no Reino Unido.

Fonte: The Royal Swedish Academy of Sciences

domingo, 25 de agosto de 2019

Imagem de um emaranhamento quântico

Pela primeira vez na história, pesquisadores conseguiram tirar uma foto de um tipo forte de emaranhamento quântico, chamado emaranhamento de Bell, revelando assim evidências visuais de um fenômeno misterioso que Albert Einstein, perplexo, chamava de “ação fantasmagórica à distância”.
© U. Glasgow (emaranhamento de Bell)

Duas partículas que interagem uma com a outra, como dois fótons passando por um divisor de feixes, podem, às vezes, continuar conectadas, e compartilhar instantaneamente seus estados físicos, a despeito da distância que as separa. Essa conexão é conhecida como emaranhamento quântico, e perpassa o campo da mecânica quântica.

Einstein achava que a mecânica quântica era “fantasmagórica” por causa da instantaneidade dessa aparente interação à distância entre duas partículas emaranhadas, um fenômeno que parecia incompatível com alguns conceitos de sua teoria da relatividade restrita.

Mais tarde, John Bell formalizou o conceito de interação não-local, descrevendo uma forma forte de emaranhamento que causa esse efeito fantasmagórico. Embora o emaranhamento de Bell esteja sendo usado em aplicações práticas, como computação e criptografia quânticas, ele nunca havia sido captado em uma única imagem até hoje.

Os físicos da Universidade de Glasgow, na Escócia, desenvolveram um sistema que dispara um fluxo de fótons emaranhados, a partir de uma fonte quântica de luz, sobre “objetos não convencionais” que são exibidos em materiais de cristal líquido, que alteram a fase dos fótons à medida que eles passam através desses materiais.

A equipe montou uma câmera muito sensível capaz de detectar fótons individuais, que só tiraria fotos quando detectasse tanto um fóton quanto seu “gêmeo” emaranhado, criando um registro visível do emaranhamento dos fótons.

“A imagem que conseguimos captar é uma demonstração elegante de uma propriedade fundamental da natureza, vista pela primeira vez na forma de uma imagem”, explica o autor principal do estudo, Paul-Antoine Moreau, da Faculdade de Física e Astronomia da Universidade de Glasgow. “É um resultado animador, que pode gerar avanços no emergente campo da computação quântica, e levar a novos tipos de imagiologia”.

O artigo, chamado “Imaging Bell-type nonlocal behavior”, foi publicado na Science Advances.

Fonte: Universidade de Glasgow

quarta-feira, 3 de julho de 2019

A criação de plasma de quarks e glúons

Uma ínfima fração de segundo após o Big Bang, o Universo material era constituído por um plasma composto pelas partículas elementares conhecidas como quarks e glúons. É o que propõe o chamado modelo padrão sobre a origem do Universo.
© CERN/LHC (colisão de prótons com núcleos atômicos de chumbo)

Com a rápida expansão e o consequente resfriamento, aquele meio informe e intensamente dinâmico se fragmentou e cada pequeno conjunto de quarks e glúons deu origem a uma partícula composta, o hádron. Assim foram formados, por exemplo, os prótons, cada qual constituído por dois quarks do tipo up e um quark do tipo down (os dois tipos com as menores massas entre todos os quarks), interagindo por meio de glúons.

Essa situação primordial tem sido reproduzida no LHC, o Grande Colisor de Hádrons instalado no CERN, a Organização Europeia para a Pesquisa Nuclear, na fronteira entre a França e a Suíça, e também no RHIC, o Colisor Relativístico de Íons Pesados, instalado no Brookhaven National Laboratory, nos Estados Unidos.

As primeiras detecções do plasma de quarks e glúons foram feitas a partir da colisão de dois núcleos atômicos de elementos pesados, como chumbo e ouro. Agora, a colaboração ALICE, um dos grupos internacionais de pesquisadores que atua no LHC, obteve uma das “assinaturas” características do plasma de quarks e glúons por meio da colisão de prótons com núcleos de chumbo.

Esse resultado, conseguido a partir de precursores muito mais leves, foi alcançado graças ao altíssimo patamar de energia das partículas durante a colisão, de 5,02 TeV (5,02 teraelétrons-volt ou 5,02 x 1012 elétrons-volt).

O físico brasileiro Henrique Zanoli, que participa da colaboração ALICE, estudou essa colisão em seu trabalho de doutoramento.

“O experimento apresentou uma anisotropia azimutal na distribuição das partículas geradas pela colisão. Isso quer dizer que as partículas resultantes da colisão não foram produzidas nas mesmas quantidades em todas as direções. O padrão de distribuição dos elétrons que observamos é característico da assinatura do plasma de quarks e glúons,” disse Zanoli.

Segundo Zanoli, a produção de quarks pesados ocorreu em um momento em que a densidade de energia do sistema ainda estava extremamente alta, e sua evolução é uma interessante ferramenta para estudar a presença do plasma de quarks e glúons.

“Esses quarks pesados, que são produzidos antes do plasma e o atravessam, fornecem informações sobre o plasma, assim como uma emissão de pósitrons, que atravessa o corpo humano, fornece informações sobre esse corpo em uma tomografia. Se as partículas estudadas tivessem sido produzidas no fim do processo, essa analogia não seria válida e não poderíamos afirmar, com base no resultado final, quais são as características do plasma de quarks e glúons formado. Mas, como foram produzidos no início, os quarks pesados se tornam marcadores muito confiáveis,” acrescentou Zanoli.

O plasma de quarks e glúons é tema de muita pesquisa na atualidade. E isso principalmente por dois motivos. Primeiro, porque agora é possível produzir o plasma experimentalmente em colisores, como o LHC e o RHIC. Segundo, e essa é a maior motivação dos experimentos, porque possibilita compreender o Universo primordial e também o que ocorre em objetos astrofísicos, como as estrelas de nêutrons.

A produção do plasma de quarks e glúons em laboratório se tornou possível devido à altíssima densidade de energia alcançada nos grandes colisores da atualidade.

Um patamar de 5 TeV não é tão alto quando se pensa em um objeto macroscópico, constituído por uma quantidade enorme de partículas distribuídas em um grande volume. Mas, quando se divide 5 TeV pelo volume de um próton, o resultado é uma densidade energética a que somente agora a humanidade teve acesso em escala de laboratório.

Fonte: Physical Review Letters

terça-feira, 11 de junho de 2019

Salvando o gato de Schrödinger

O famoso paradoxo gato de Schrödinger foi elaborado como um símbolo da possibilidade de sobreposição de estados e da imprevisibilidade que são característicos do mundo quântico.
© Kat Stockton (gato de Schrödinger)

Uma equipe de pesquisadores diz ter descoberto um modo de capturar e salvar o famoso animal, antecipando seus saltos e agindo na hora exata para salvá-lo da tragédia. No processo, eles poderiam derrubar um dos mais antigos fundamentos da física quântica.

A descoberta, feita por um time de físicos da Universidade de Yale, nos Estados Unidos, permite criar um sistema que avisa antecipadamente da iminência de um salto quântico em átomos artificiais contendo informação quântica.

O gato de Schrödinger é um famoso paradoxo usado para ilustrar o conceito de sobreposição, ou seja, a possibilidade de dois estados opostos existirem simultaneamente, e a imprevisibilidade na física quântica. A ideia é que um gato é colocado em uma caixa selada, com uma fonte radioativa e um veneno que será ativado se ocorrer o decaimento em algum átomo da substância radioativa.

A teoria da sobreposição da física quântica sugere que, até que alguém abra a caixa, o gato está ao mesmo tempo vivo e morto, numa espécie de sobreposição desses estados. O ato de abrir a caixa para observar o gato causaria uma mudança abrupta e aleatória em seu estado quântico, forçando-o a estar vivo ou morto.

Um salto quântico é a mudança aleatória e discreta (não-contínua) no estado que ocorre a partir do ato da observação.

O experimento, realizado no laboratório da Universidade de Yale pelo professor Michel Devoret e proposto pelo autor principal do artigo, Zlatko Minev, permite pela primeira vez espiar o mecanismo do salto quântico. Os resultados revelam uma descoberta surpreendente que contradiz a visão consagrada, estabelecida pelo físico dinamarquês Niels Bohr: a de que os saltos quânticos não são nem abruptos nem tão aleatórios como se pensava anteriormente.

Para um objeto tão pequeno como um elétron, uma molécula, ou um átomo artificial contendo informação quântica, chamada de “qubit”, um salto atômico é a transição repentina de um de seus estados de energia para outro. Nos computadores quânticos, ainda em desenvolvimento, pesquisadores precisam lidar com os saltos dos qubits, que são manifestações de erros de cálculos.
Os enigmáticos saltos quânticos foram teorizados por Bohr há mais de um século, mas não foram observados em átomos até os anos 1980.

“Esses saltos ocorrem todas as vezes que medimos um qubit”, explica Devoret. “Os saltos quânticos são conhecidos por serem imprevisíveis a longo prazo”. Apesar disso, adiciona Minev, “queríamos sabemos se seria possível conseguir um sinal de aviso prévio que um salto está prestes a ocorrer”. Minev conta que o experimento foi inspirado por uma previsão teórica de Howard Carmichael, da Universidade de Auckland, na Nova Zelândia, um pioneiro na trajetória da teoria quântica e um dos co-autores do estudo.

Além de seus impactos fundamentais, os resultados possivelmente trarão um avanço enorme no entendimento e no controle da informação quântica. Pesquisadores dizem que administrar com segurança a informação quântica e corrigir os erros quando eles ocorrem são os desafios principais no desenvolvimento de computadores quânticos totalmente eficientes.

A equipe de Yale usou uma abordagem especial para observar, indiretamente, um átomo artificial supercondutor, recorrendo a três geradores de microondas que irradiavam o átomo que estava aprisionado em uma cavidade tridimensional feita de alumínio.  O método de monitoramento duplamente indireto, que Minev criou para circuitos supercondutores, permite aos pesquisadores observarem o átomo com uma eficácia nunca antes vista.

A radiação em comprimento de micro-ondas agita o átomo artificial, enquanto ele é observado simultaneamente, o que resulta em saltos quânticos. O minúsculo indicativo quântico da ocorrência desses saltos pode ser amplificado sem perda de temperatura para a sala. Isso permite que o sinal seja monitorado em tempo real. Esse arranjo permitiu que os pesquisadores vissem uma repentina ausência de fótons de detecção (fótons emitidos por uma estado auxiliar do átomo quando agitado pelas micro-ondas); essa pequena queda nos fótons é o aviso prévio de que um salto quântico vai ocorrer.

“Esse belo efeito que o experimento revelou é o aumento da coerência durante o salto, apesar da observação”, diz Devoret. Minev adiciona: “Podemos usar isso não apenas para capturar o salto, mas também para revertê-lo.”

Esse é um ponto crucial, segundo os pesquisadores. Enquanto saltos quânticos aparecem pontualmente e aleatoriamente a longo prazo, reverter um salto quântico significa que a evolução do estado quântico possui, pelo menos em parte, um caráter determinista e não aleatório; o salto sempre ocorre da mesma maneira previsível a partir de seu início aleatório.

“Os saltos quânticos de um átomo são, de certa forma, análogos à erupção de um vulcão”, explica Minev. “Eles são completamente imprevisíveis a longo termo. Porém, com o monitoramento correto, podemos detectar o aviso prévio de um desastre iminente e agir sobre ele antes que ocorra.”

O estudo em questão foi publicado na revista Nature.

Fonte: Yale University

domingo, 2 de junho de 2019

Observação da radiação Hawking

Físicos do Instituto de Tecnologia de Israel (Technion) confirmaram as previsões de uma teoria de Stephen Hawking sobre buracos negros, utilizando um análogo construído em laboratório.


© Revista Física (ilustração de um buraco negro)

Ao tentar aplicar as leis físicas que regem o calor nos buracos negros, o físico Stephen Hawking percebeu que estes objetos devem emitir radiação de suas superfícies, chamada Radiação Hawking. O mecanismo concatena a mecânica quântica com a gravidade.

Stephen Hawking apresentou sua teoria em 1974, depois de analisar o trabalho de outro físico, Jacob Bekenstein, da Universidade de Princeton. Para Bekenstein, a entropia de um buraco negro, ou seja, o caos de um sistema relativo ao seu volume, pressão, temperatura e energia, era proporcional à área de seu horizonte de eventos, ponto-limite do qual não é mais possível escapar desta região do espaço.

A entropia de um buraco negro é dada pela equação de Bekenstein-Hawking: S=k.A/4.lP2 , onde A é a área, k é a constante de Boltzmann e lP é o comprimento de Planck que é expreso por lP=G.h/2π.c3)1/2  , sendo h a constante de Planck, G a constante gravitacional e c a velocidade da luz.

Infelizmente, ainda não é posível se aproximar o suficiente de um buraco negro para provar ou refutar a teoria. Assim, os físicos testaram um buraco negro análogo de laboratório.

Os pesquisadores construíram tal análogo de buraco negro usando um material quântico chamado de condensado de Bose-Einstein. Neste condensado de Bose-Einstein, o horizonte de eventos do buraco negro artificial representa o ponto sem retorno para o som, ao invés da luz.

Os cientistas criaram um condensado de Bose-Einstein capturando 8.000 átomos de rubídio em um feixe de laser. Os condensados ​​de Bose-Einstein são sistemas de átomos ultrafrios, onde estranhos fenômenos quânticos se tornam visíveis em escalas maiores.

Os pesquisadores em seguida utilizaram um segundo laser para aumentar a energia potencial de apenas um lado do condensado de Bose-Einstein, tornando-o mais denso naquele lado. Uma transição brusca (como um horizonte de eventos) separa a área mais densa (fora do buraco negro) da área menos densa (dentro do buraco negro).

Do ponto de vista dos cientistas, ao olhar para o experimento, parece que todos os átomos de rubídio estão se movendo. Fora do buraco negro, na região mais densa, a velocidade do som é mais rápida do que a velocidade deste fluxo, de modo que as ondas sonoras podem se mover em qualquer direção. Na região menos densa, dentro do buraco negro, a velocidade do som é mais lenta, então as ondas sonoras apenas se afastam da transição brusca e penetram no buraco negro.

Esta experiência imita uma das características mais importantes de um buraco negro: fora do objeto, a luz pode se afastar dele ou entrar nele. Mas, uma vez dentro, não pode escapar. O análogo de laboratório substitui a luz pelo som, e os pesquisadores podem medir as ondas sonoras dentro e fora de seu “horizonte de eventos”. O sinal da radiação Hawking é uma correlação entre estes dois tipos de ondas.

Isto foi suficiente para extrair informações importantes sobre a radiação, ou seja, que ela tem um espectro térmico com uma temperatura determinada pelo que seria o análogo da gravidade neste sistema artificial.

Isto significa que o buraco negro artificial emitiu um espectro contínuo de comprimentos de onda, em vez de comprimentos de onda preferidos. Estas observações e as temperaturas estavam de acordo com o que foi previsto na teoria de Hawking.

Segundo o principal autor do estudo, o físico Jeff Steinhauer, isso mostra que “os cálculos de Hawking estavam corretos”. Contudo, provavelmente são um efeito real que acontece nestes tipos de sistemas.

Esta pesquisa é mais um exemplo da utilização de análogos para estudarmos fenômenos físicos impossíveis de serem observados. Eles servem como uma verificação importante das teorias que orientam nossa compreensão de coisas inacessíveis.

Agora, os pesquisadores esperam refazer repetidamente o experimento, a fim de determinar como a radiação Hawking muda com o tempo.

Quem sabe um dia possamos medir essas propriedades em buracos negros reais.

Fonte: Nature

sábado, 23 de março de 2019

Será que ondas sonoras transportam massa?


É perdoável pensar que nossa compreensão da física clássica já tenha atingido seu máximo ao longo dos quatro séculos desde que Isaac Newton inventou suas leis de movimento. Mas novas pesquisas surpreendentes mostram que ainda há segredos esperando para serem encontrados, escondidos à vista de todos; ou, pelo menos neste caso, ao alcance da voz.
© Shustterstock (ilustração de ondas sonoras)

Um grupo de cientistas teorizou que as ondas sonoras possuem massa, o que significa que os sons seriam diretamente afetados pela gravidade. Eles sugerem que os fônons, excitações coletivas parecidas com partículas, responsáveis pelo transporte de ondas sonoras através de um meio, podem exibir uma pequena quantidade de massa em um campo gravitacional. "Seria de se esperar que resultados de física clássica como esse já fossem conhecidos há muito tempo," diz Angelo Esposito, da Universidade de Columbia, principal autor do estudo.

Esposito e seus colegas se basearam em um artigo anterior, publicado no ano passado, no qual Alberto Nicolis, da Columbia, e Riccardo Penco, da Universidade Carnegie Mellon, sugeriram pela primeira vez que os fônons poderiam ter massa em um superfluido. O estudo mais recente, no entanto, mostra que este efeito também deve ser válido em outros materiais, incluindo líquidos e sólidos regulares, e até mesmo no próprio ar.

E, embora se espere que a quantidade de massa transportada pelos fônons seja pequena, comparável a um átomo de hidrogênio, cerca de 10-24gramas, ela pode, na verdade, ser mensurável. Exceto que, se você fosse medí-la, encontraria algo profundamente estranho: a massa dos fônons seria negativa, significando que eles cairiam "para cima". Com o tempo, sua trajetória gradualmente se afastaria de uma fonte gravitacional como a Terra. "Se tivessem massa gravitacional positiva, eles cairiam para baixo," diz Penco.

E a extensão da "queda" é igualmente pequena, com a variação dependendo do meio pelo qual o fônon está passando. Na água, onde o som se move a 1,5 quilômetros por segundo, a massa negativa do fônon faz com que se desloque a cerca de 1 grau por segundo. Mas isso corresponde a uma mudança de 1 grau ao longo de 15 quilômetros, o que seria extremamente difícil de medir.

Ainda que possa ser difícil, tal medida ainda deve ser possível. Esposito observa que, para distinguir a massa dos fônons, é possível procurá-los em um meio onde a velocidade do som seja muito lenta. Isso pode ser possível no hélio superfluido, onde a velocidade do som pode cair para centenas de metros por segundo ou menos, e a passagem de um único fônon pode mudar o equivalente a um átomo de material.

Alternativamente, em vez de buscar efeitos minúsculos ampliados em substâncias exóticas, os pesquisadores podem procurar por sinais mais óbvios de fônons portadores de massa estudando de perto ondas sonoras extremamente intensas. Os terremotos oferecem uma possibilidade, diz Esposito. De acordo com seus cálculos, um tremor de magnitude 9 liberaria energia suficiente para que a mudança resultante na aceleração gravitacional da onda sonora do terremoto pudesse ser mensurável usando relógios atômicos. (Embora as técnicas atuais não sejam suficientemente sensíveis para detectar o campo gravitacional de uma onda sísmica, futuros avanços na tecnologia podem tornar isso possível.)

É improvável que as ondas sonoras que têm massa tenham um grande impacto na vida cotidiana, mas a possibilidade que algo tão fundamental tenha passado despercebida por tanto tempo é intrigante.

Um artigo foi publicado no periódico Physical Review Letters.

Fonte: Scientific American

Levitação de objetos macroscópicos com luz


Pesquisadores da Caltech (Instituto de Tecnologia da Califórnia) estão desenvolvendo uma maneira de fazer levitar e impulsionar objetos usando apenas a luz, através da criação de determinados padrões, em nanoescala, na superfície dos objetos.


© H. Atwater (ilustração de objeto nano-modelado reorientado)

Embora ainda esteja na etapa teórica, o trabalho é um passo em direção ao desenvolvimento de uma espaçonave que poderia alcançar o planeta mais próximo fora do nosso Sistema Solar em 20 anos, alimentada e acelerada apenas pela luz.

A pesquisa foi feita no laboratório de Harry Atwater, Howard Hughes Professor de Física Aplicada e Ciência de Materiais na Divisão de Engenharia e Ciências Aplicadas da Caltech.

Décadas atrás, o desenvolvimento das chamadas “pinças ópticas” permitiu que os cientistas movessem e manipulassem objetos minúsculos, como nanopartículas, usando a pressão radiativa de um feixe de luz do laser nitidamente focado. Este trabalho formou a base para o Prêmio Nobel de Física de 2018. No entanto, as pinças só são capazes de manipular objetos muito pequenos e apenas a distâncias muito curtas.

Ognjen Ilic, pós-doutorando e autor do estudo, oferece uma analogia: "Pode-se levitar uma bola de pingue-pongue usando um fluxo constante de ar de um secador de cabelo. Mas não funcionaria se a bola de pingue-pongue fosse muito grande ou se estivesse muito longe do secador de cabelo, e assim por diante".

Com essa nova pesquisa, objetos de diversas formas e tamanhos, de micrômetros a metros, poderiam ser manipulados com um feixe de luz. A chave é criar padrões específicos em nanoescala na superfície de um objeto. Esse padrão interage com a luz de tal forma que o objeto pode se endireitar quando perturbado, criando um torque de restauração para mantê-lo no feixe de luz. Assim, em vez de exigir raios laser altamente focalizados, o padrão dos objetos é projetado para "codificar" sua própria estabilidade. A fonte de luz também pode estar a milhões de quilômetros de distância.

"Nós criamos um método que pode levitar objetos macroscópicos", diz Atwater, que também é diretor do Centro Conjunto de Fotossíntese Artificial. "Há uma aplicação audaciosa e interessante para usar essa técnica como meio de propulsão de uma nova geração de naves espaciais. Estamos longe de realmente fazer isso, mas estamos no processo de testar os princípios."

Em teoria, essa espaçonave poderia ser modelada com estruturas em nanoescala e acelerada por uma luz laser baseada na Terra. Sem precisar carregar combustível, a espaçonave pode alcançar velocidades muito altas, até relativísticas, e possivelmente viajar para outras estrelas.

Atwater também prevê que a tecnologia poderia ser usada aqui na Terra para permitir a rápida fabricação de objetos cada vez menores, como placas de circuito.

Um artigo descrevendo a pesquisa aparece na edição on-line da revista Nature Photonics.

Fonte: Caltech