segunda-feira, 19 de julho de 2021

Efeito fotoelétrico aplicado em radioterapia

Pesquisadores descobriram que efeito fotoelétrico, explicado por Einstein em 1905, pode potencializar a destruição de tumores via radioterapia.

© U. de Kyoto (moléculas de iodo ajudam a destruir tumores)

A radioterapia é um dos principais tratamentos oncológicos hoje disponíveis. No entanto, ela sofre com um problema de eficácia. Para que a irradiação de raios X possa funcionar, é necessário que haja moléculas de oxigênio. Quando os raios X chegam ao interior da célula, eles induzem reações entre o oxigênio e o DNA que podem danificar o tumor, impedindo seu crescimento e multiplicação. Porém, na região central dos tumores, os níveis de oxigênio são baixos, devido à falta de vasos sanguíneos.

Há anos, cientistas do Instituto de Ciências Integradas de Material Celular da Universidade de Kyoto (iCeMS), junto a colaboradores japoneses e americanos, tentam superar este problema e encontrar maneiras mais diretas e eficazes de tratar o DNA de células de câncer empregando princípios da física quântica.

Em trabalhos anteriores, os pesquisadores mostraram que nanopartículas carregadas de gadolínio podem matar células cancerosas quando irradiadas com 50,25 keV de radiação síncrotron. Para realizar o estudo atual, eles projetaram nanopartículas orgânicas porosas contendo iodo. O iodo é mais barato do que o gadolínio e libera elétrons com níveis menores de energia. 

No experimento, os pesquisadores dispersaram suas nanopartículas sobre estruturas esféricas de tecido que continham células cancerosas. As estruturas esferoides foram depois submetidas à irradiação por raios X com intensidade de 33,2 keV durante 30 minutos. 

O iodo libera elétrons que rompem o DNA do tumor, levando à morte celular. O resultado foi a destruição completa dos tumores em três dias. Após fazerem experimentações sistemáticas nos níveis de energia, eles foram capazes de demonstrar que o efeito ideal de destruição do tumor ocorre com o raio X de 33,2 keV.

A exposição de um metal à luz leva à liberação de elétrons, um fenômeno chamado efeito fotoelétrico. Em 1905, Albert Einstein explicou este fenômeno, onde foi agraciado com o Prêmio Nobel pela descoberta. esta pesquisa fornece evidências que sugerem que é possível reproduzir este efeito dentro das células cancerosas.

Análises posteriores mostraram que as nanopartículas foram absorvidas pelas células tumorais. Com a quantidade certa de energia, o iodo liberou elétrons que causaram quebras na fita dupla no DNA nuclear e, assim provocaram a morte celular.

Este estudo é um exemplo importante de como um fenômeno da física quântica pode ser empregado dentro de uma célula cancerosa. Parece que uma nuvem de elétrons de baixa energia é gerada perto do DNA. Isto causa danos difíceis de serem reparados e leva à morte da célula.

Agora, a equipe buscará entender como os elétrons são liberados dos átomos de iodo após estes serem expostos aos raios X. Além disso, os pesquisadores querem inserir o iodo dentro do DNA, para aumentar a sua eficácia, e testar as nanopartículas em modelos de câncer em ratos. 

As recentes descobertas foram publicadas na revista Scientific Reports.

Fonte: Scientific American

quinta-feira, 1 de abril de 2021

Revelando novas partículas elementares

Após duas década de espera, que incluíram uma longa batalha para obter financiamento e uma mudança para o outro lado do continente, um experimento sobre múons está prestes a revelar seus resultados.

© Fermilab (experimento Muón g-2)

Estas são partículas semelhantes ao elétron, porém de maior massa e mais instáveis. Os físicos esperam que as mais recentes medidas sobre o magnetismo do múon confirme achados anteriores que podem levar à descoberta de novas partículas.

A divulgação da conclusões do estudo está prevista para o dia 7 de abril. A pesquisa, intitulada experimento Múon g–2, que agora acontece no Fermilab (Fermi National Accelerator Laboratory), um laboratório especializado em física de partículas de alta energia localizado nos EUA, já havia sido realizado anteriormente entre 1997 e 2001 no Laboratório Nacional de Brookhaven em Long Island, Nova York.

Os resultados originais, anunciados em 2001 e finalizados em 2006, geraram controvérsia entre os físicos. Eles revelaram que o momento magnético do múon, que indica o tamanho do campo magnético gerado, é levemente maior do que o previsto pela teoria. Caso estes resultados sejam confirmado, no anúncio da próxima semana ou em experimentos futuros, eles podem revelar a existência de novas partículas elementares.

O experimento Múon g–2 consegue medir o momento magnético da partícula ao promover sua movimentação em um círculo de 15 metros de diâmetro. Um imã poderoso mantém os múons em sua rota circular, ao mesmo tempo em que causa a rotação de seus polos magnéticos. Quanto maior for o momento magnético da partícula, mais rápido ela irá rodar, como um pião em precessão.

A discrepância em relação à teoria encontrada pelo experimento original era pequena. À primeira vista, a física quântica prevê que partículas elementares, como o múon e o elétron, possuem um momento magnético exatamente igual a 2 (a unidade de medida depende da partícula). No entanto, cálculos mais completos revelam variações deste valor, já que o espaço vazio jamais está completamente vazio. O espaço em volta do múon contém uma diversidade de partículas virtuais, versões efêmeras de partículas reais que aparecem e desaparecem continuamente, algo que altera o campo magnético do múon. 

Desta maneira, quanto maior for a variedades das partículas, maior será o impacto de suas versões virtuais no momento magnético. Isto significa que uma medição de alta precisão pode revelar evidências indiretas da existência de novas partículas, anteriormente desconhecidas aos cientistas. 

O momento magnético obtido é apenas levemente diferente de 2. Esta diferença é o que chamada g–2 . Em Brookhaven, os físicos descobriram que g–2 é igual a 0.0023318319. À época, este valor era maior do que a estimativa da contribuição das partículas virtuais conhecidas. A precisão da medição não era alta o suficiente para permitir que se afirmasse, com confiança, que a discrepância era real. Os resultados também vieram em um momento em que o campo parecia pronto para um período de descobertas explosivas.

O Grande Colisor de Hádrons (LHC) estava em construção na fronteira entre a Suíça e a França, e os teóricos acreditavam que ele descobriria um grande número de novas partículas. Mas, além da histórica descoberta do bóson de Higgs em 2012, o LHC não encontrou nenhuma outra partícula elementar. Além disso, seus dados descartaram muitos candidatos potenciais para partículas virtuais que poderiam ter inflado o momento magnético do múon. O LHC, no entanto, não descartou todas as explicações possíveis para a discrepância. Dentre estas explicações, está a de que não exista apenas um tipo de bósons de Higgs, e sim pelo menos dois.

Na ocasião do experimento de Brookhaven, o valor experimental para o momento magnético do múon teve que ser comparado com as previsões teóricas que vieram com incertezas relativamente grandes. Mas enquanto a melhor medição experimental de g–2 não mudou em 15 anos, a teoria evoluiu. 

No ano passado, uma grande colaboração, reuniu várias equipes de pesquisadores, cada um especializado em um tipo de partícula virtual, e publicou um valor de “consenso” para a constante fundamental. A discrepância entre os valores teóricos e experimentais não mudou. Também no ano passado, uma equipe chamada Colaboração Budapest-Marseille-Wuppertal sugeria um valor teórico para g-2 mais próximo do experimental. Ela se concentrou em uma fonte de incerteza na teoria, proveniente de versões virtuais de glúons, partículas transmissoras de força nuclear forte. Se seus resultados estiverem corretos, a lacuna entre a teoria e o experimento pode acabar não existindo. 

Os resultados podem não resolver a questão ainda. Graças a atualizações no aparelho, a equipe espera melhorar a precisão do g-2 em quatro vezes, em comparação com o experimento de Brookhaven. Mas, até agora, analisou apenas um ano dos dados coletados desde 2017, não o suficiente para que a margem de erro seja mais estreita. Ainda assim, se a medição for muito parecida com a original, a confiança neste resultado vai melhorar. Se o Fermilab finalmente confirmar a surpresa de Brookhaven, a comunidade científica provavelmente exigirá outra confirmação independente. Isso poderia vir de uma técnica desenvolvida no Complexo de Pesquisa do Acelerador de Prótons do Japão (J-PARC), que mede o momento magnético do múon de modo radicalmente diferente.

Fonte: Scientific American

sábado, 13 de fevereiro de 2021

Partículas fundamentais ainda desconhecidas

Um experimento revelou um inesperado comportamento quântico em um material isolante, e pode indicar a existência de uma nova classe de partículas ainda desconhecida.

© Princeton University (isolador de ditelureto de tungstênio)

O fenômeno quântico em questão é conhecido como oscilação quântica, e foi observado em um corpo isolador feito de um material chamado de ditelureto de tungstênio. A teoria quântica atualmente aceita diz que materiais isoladores não poderiam apresentar nenhuma forma de comportamento quântico. Em geral, esta oscilação pode ser observada em metais.

“Se nossas interpretações estiverem corretas, estamos vendo uma forma fundamentalmente nova de matéria quântica,” diz Sanfeng Wu, professor assistente de física na Universidade Princeton. “Estamos agora ponderando que pode existir um mundo quântico inteiramente novo, escondido nos isoladores. É possível que tenhamos deixado de notar isso durante as últimas décadas.” 

Durante muito tempo, a possibilidade de observar oscilações quânticas foi considerada como uma característica que distinguia metais e isoladores. Nos metais, os elétrons apresentam elevada mobilidade, e a resistividade do material, isto é, a resistência à corrente elétrica, é fraca. Quase um século atrás, os pesquisadores observaram que a combinação de baixas temperaturas com um campo magnético pode fazer com que os elétrons passem de um estado “clássico” para um estado quântico, causando oscilações na resistividade do metal. 

Já nos corpos capazes de agir como isoladores os elétrons não conseguem se deslocar, pois os materiais de que são feitos possuem uma resistividade muito alta. As experiências sugeriam que não era possível ocorrer oscilações quânticas neles, não importando a intensidade de campo magnético aplicado. 

A descoberta foi feita quando os pesquisadores estudavam o material ditelureto de tungstênio, que eles manipularam de modo a formar um corpo bidimensional. O material foi preparado utilizando-se uma fita adesiva padrão de forma a conseguir raspar cada vez mais o objeto, buscando moldar o que é chamado de monocamada, que nada mais é do que uma camada única e muito fina, feita de átomos. 

Os pesquisadores constataram que quando o ditelureto de tungstênio é manipulado para um formato um pouco mais espesso, ele se comporta como um metal. Mas, assim que é reduzido a uma monocamada, ele apresenta uma poderosa capacidade de agir como isolante. 

Os pesquisadores então começaram a medir a resistividade da monocamada de ditelureto de tungstênio sob campos magnéticos. E se surpreenderam ao constatar que a resistividade do isolador, apesar de muito grande, começou a oscilar quando o campo magnético aumentava, indicando a mudança para o estado quântico, ou seja, o material, um isolador muito poderoso, passou a exibir a propriedade quântica mais característica de um metal.

Atualmente não existem teorias para explicar esse fenômeno. Wu e seus colegas apresentaram uma hipótese provocativa. Eles sugerem que o experimento fez com que os elétrons se organizassem, e destas interações estariam surgindo novas partículas, que nomearam como “férmions neutros”, por não possuírem carga elétrica. Seriam estas partículas as responsáveis por criar esse efeito quântico altamente notável. 

Férmion é o nome dado a uma categoria de partículas na qual estão incluídos os elétrons. Nos materiais com propriedades quânticas, os férmions podem ser tanto elétrons, dotados de carga negativa, ou “buracos” dotados de carga positiva responsáveis pela condução da corrente elétrica. Isto é, quando o material é um isolador elétrico, estes férmions carregados não conseguem se mover livremente. 

Entretanto, partículas que sejam neutras poderiam teoricamente existir em um isolador e se deslocar através dele. Os resultados experimentais conflitam com todas as teorias atuais que se baseiam na existência de férmions dotados de carga, mas poderiam ser explicados pela presença de férmions sem carga. 

A equipe de Princeton planeja novas investigações sobre as propriedades quânticas do ditelureto de tungstênio. Eles estão interessados especialmente em determinar se a hipotética existência de uma nova partícula é válida.

A descoberta foi apresentada na revista Nature.

Fonte: Scientific American

terça-feira, 6 de outubro de 2020

Buracos negros e o centro da Via Láctea

O Prêmio Nobel de Física de 2020 foi concedido a três pesquisadores que fizeram descobertas sobre buracos negros, anunciou hoje a Academia Real das Ciências da Suécia.


© NASA (ilustração de região próxima de um buraco negro)

Roger Penrose, da Universidade de Oxford vai receber metade do prêmio de 10 milhões de coroas suecas (6,2 milhões de reais) por ter provado, em 1965, que a teoria geral da relatividade leva à formação de buracos negros. A outra metade da premiação foi concedida ao alemão Reinhard Genzel e à americana Andrea Ghez, que lideraram dois grupos de astrônomos na descoberta de um objeto invisível e extremamente pesado que governa as órbitas das estrelas no centro de nossa galáxia. Um buraco negro supermassivo é a única explicação atualmente conhecida.

O cientista Roger Penrose usou métodos matemáticos engenhosos para provar que os buracos negros são uma consequência direta da teoria geral da relatividade de Albert Einstein. O próprio Einstein não acreditava que buracos negros realmente existissem, estes monstros supermassivos ​​que capturam tudo que entra neles. Nada pode escapar, nem mesmo a luz.

Em janeiro de 1965, dez anos após a morte de Einstein, Roger Penrose provou que os buracos negros realmente podem se formar e os descreveu em detalhes; no fundo, os buracos negros escondem uma singularidade em que cessam todas as leis conhecidas da natureza. Seu artigo inovador ainda é considerado a contribuição mais importante para a teoria geral da relatividade desde Einstein.

Reinhard Genzel, diretor do Instituto Max Planck de Física Extraterrestre, na Alemanha, e professor da Universidade da Califórnia, nos EUA, e Andrea Ghez, professora da Universidade da Califórnia, lideram dois grupos de astrônomos que, desde o início dos anos 1990, se concentra em estudar uma região no centro da Via Láctea, onde está localizado o buraco negro supermassivo, denominado Sagitário A*.


© UCLA (animação de estrelas girando ao redor de buraco negro)

Uma animação das órbitas estelares no centro de 0,5 segundos de arco. Imagens tiradas dos anos de 1995 a 2016 são usadas para rastrear estrelas específicas orbitando o buraco negro proposto no centro da Galáxia. Estas órbitas, Aplicando as Leis de Kepler, estas órbitas fornecem a melhor evidência de um buraco negro supermassivo. Especialmente importante é a estrela S0-2, pois foi observada por mais de um período orbital completo, que é de apenas 16,17 anos. Veja também a notícia: Estrela "dançando" em torno de buraco negro supermassivo.

Usando os maiores telescópios do mundo, Genzel e Ghez desenvolveram métodos para ver através das enormes nuvens de gás interestelar e poeira até o centro da Via Láctea. Estendendo os limites da tecnologia, eles refinaram novas técnicas para compensar as distorções causadas pela atmosfera da Terra, construindo instrumentos exclusivos e se comprometendo com pesquisas de longo prazo. Seu trabalho pioneiro nos deu a evidência mais convincente de um buraco negro supermassivo no centro da Via Láctea.

Desta maneira foi possível mapear as órbitas das estrelas mais brilhantes próximas ao centro da nossa Galáxia e encontraram um objeto invisível extremamente pesado que puxa este amontoado de estrelas, fazendo-as orbitar em velocidades vertiginosas. Cerca de quatro milhões de massas solares estão reunidas em uma região não maior do que nosso Sistema Solar.

“As descobertas dos laureados deste ano abriram novos caminhos no estudo de objetos compactos e supermassivos. Mas estes objetos exóticos ainda colocam muitas questões que imploram por respostas e motivam pesquisas futuras. Não apenas perguntas sobre sua estrutura interna, mas também perguntas sobre como testar nossa teoria da gravidade sob as condições extremas nas imediações de um buraco negro”, disse David Haviland, presidente do Comitê Nobel de Física.

Fonte: The Royal Swedish Academy of Sciences

terça-feira, 4 de agosto de 2020

Bóson de Higgs decai em dois múons

Na 40ª conferência do International Conference on High Energy Physics (ICHEP), os experimentos do ATLAS (A Toroidal LHC ApparatuS) e CMS (Compact Muon Solenoid) anunciaram novos resultados que mostram que o bóson de Higgs se decompõe em dois múons.


© CMS (decaimento do bóson de Higgs gerando dois múons) 

O múon é uma cópia mais pesada do elétron, com carga elétrica -1 e spin 1⁄2, uma das partículas elementares que constituem o conteúdo de matéria do Universo. Enquanto os elétrons são classificados como uma partícula de primeira geração, os múons pertencem à segunda geração. O processo físico do bóson de Higgs decaindo em múons é um fenômeno raro, pois apenas um bóson de Higgs em 5.000 decai em múons. Esses novos resultados têm extrema importância para a física fundamental, porque indicam pela primeira vez que o bóson de Higgs interage com partículas elementares de segunda geração.

Os físicos do CERN estudam o bóson de Higgs desde a sua descoberta em 2012, a fim de investigar as propriedades dessa partícula muito especial. O bóson de Higgs, produzido a partir de colisões de prótons no Large Hadron Collider (LHC), se desintegra, conhecido como decaimento, quase instantaneamente em outras partículas. Um dos principais métodos de estudo das propriedades do bóson de Higgs é analisando como ele se decompõe nas várias partículas fundamentais e na taxa de desintegração.

O CMS obteve evidência desse decaimento com 3 sigma, o que significa que a chance de ver o bóson de Higgs decaindo em um par de múons devido à flutuação estatística é menor que um em 700. O resultado de dois sigma do ATLAS significa que as chances são de um em 40. A combinação de ambos os resultados aumentaria a significância bem acima de 3 sigma e fornece fortes evidências para a deterioração do bóson de Higgs em dois múons, de acordo com a previsão do Modelo Padrão.

O bóson de Higgs é a manifestação quântica do campo de Higgs, que dá massa às partículas elementares com as quais ele interage, através do mecanismo de Brout-Englert-Higgs. Ao medir a taxa na qual o bóson de Higgs decai em diferentes partículas, é possível inferir a força de sua interação com o campo de Higgs: quanto maior a taxa de decaimento em uma determinada partícula, maior a sua interação com o campo. Até agora, as experiências ATLAS e CMS observaram o decaimento do bóson de Higgs em diferentes tipos de bósons, como W e Z, e férmions mais pesados, como o lépton tau e os quarks top e bottom. A interação com os quarks mais pesados, superior e inferior, foi medida em 2018. Os múons são muito mais leves em comparação e sua interação com o campo de Higgs é mais fraca. Portanto, as interações entre o bóson de Higgs e os múons não haviam sido vistas anteriormente no LHC.

O que torna esses estudos ainda mais desafiadores é que, no LHC, para cada bóson de Higgs previsto decaindo em dois múons, existem milhares de pares de múons produzidos por outros processos que imitam a assinatura experimental esperada. A assinatura característica do decaimento do bóson de Higgs para os múons é um pequeno excesso de eventos que se agrupam perto de uma massa de 125 GeV, que é a massa do bóson de Higgs. Isolar as interações entre o bóson de Higgs e o par de múons não é tarefa fácil. Para isso, os dois experimentos medem a energia, o momento e os ângulos dos candidatos a múons no decaimento do bóson de Higgs. Além disso, a sensibilidade das análises foi aprimorada por métodos como estratégias sofisticadas de modelagem de segundo plano e outras técnicas avançadas, como algoritmos de aprendizado de máquina. O CMS combinou quatro análises separadas, cada uma otimizada para categorizar eventos físicos com possíveis sinais de um modo de produção de bóson de Higgs específico. A ATLAS dividiu seus eventos em 20 categorias direcionadas a modos específicos de produção do bóson de Higgs.

Os resultados, até agora consistentes com as previsões do Modelo Padrão, usaram o conjunto completo de dados coletados na segunda execução do LHC. Com mais dados a serem gravados da próxima corrida do acelerador de partículas e com o LHC de alta luminosidade, as colaborações do ATLAS e do CMS esperam atingir a sensibilidade (5 sigma) necessária para estabelecer a descoberta do decaimento do bóson de Higgs para dois múons e restringir possíveis teorias da física além do modelo padrão que afetariam esse modo de decaimento do bóson de Higgs.

Fonte: CERN

terça-feira, 22 de outubro de 2019

“Paradoxo dos gêmeos” em nível quântico

Um experimento recentemente proposto, que conecta um paradoxo concebido por Einstein à mecânica quântica, pode resultar em relógios e sensores mais precisos.

© M. Zych (relógio movendo-se em sobreposição de velocidades)

Magdalena Zych, física da Universidade de Queensland, na Austrália, e principal autora do estudo, conta que a colaboração internacional teve como objetivo testar o paradoxo dos gêmeos de Einstein usando partículas quânticas em estado de “sobreposição”.

O paradoxo dos gêmeos é uma das previsões mais contra-intuitivas da teoria da relatividade. O tempo pode passar em velocidades diferentes para pessoas em diferentes distâncias em relação a uma massa enorme, ou para pessoas viajando em velocidades distintas.

Por exemplo: se pegarmos um relógio de referência, distante de qualquer objeto massivo, um relógio mais próximo de uma massa ou um relógio se movendo em alta velocidade irá mostrar a passagem do tempo mais lentamente.

Isso cria um paradoxo dos gêmeos, em que um dos gêmeos vai para uma viagem em alta velocidade enquanto o outro fica para trás. Quando os gêmeos se encontrarem novamente, o gêmeo viajante será muito mais jovem, pois diferentes períodos de tempo se passaram para cada um deles.

É um efeito surpreendente, explorado em filmes populares como Interstellar, mas também foi verificado por experimentos do mundo real e é levado em consideração para que a tecnologia do GPS funcione.

A equipe incluiu pesquisadores da Universidade de Ulm e da Universidade de Hannover, na Alemanha, e descobriu como usar tecnologia a laser avançada para simular uma versão quântica do paradoxo dos gêmeos de Einstein.

Na versão quântica, em vez de gêmeos, haverá apenas uma partícula viajando em uma sobreposição quântica.

Uma sobreposição quântica significa que a partícula está em dois locais ao mesmo tempo, em cada um deles com uma probabilidade, mas ainda assim é diferente de colocar a partícula em um ou em outro local aleatoriamente. É outra maneira de um objeto existir, permitida apenas pelas leis da física quântica.

“A ideia é colocar uma partícula em sobreposição em duas trajetórias com velocidades diferentes, e verificar se uma quantidade de tempo diferente passa para cada uma delas, como no paradoxo dos gêmeos,” disse Zych.

“Se nosso entendimento da teoria quântica e da relatividade estiver correto, quando as trajetórias sobrepostas se encontrarem, o viajante quântico estará em sobreposição de ser mais velho e mais novo que ele próprio. Isso deixaria uma assinatura inconfundível nos resultados do experimento, e é isso que esperamos que seja encontrado quando o experimento for realizado no futuro.”

“Esse entendimento pode levar a tecnologias avançadas que permitirão aos físicos construir sensores e relógios mais precisos, que poderão, potencialmente, ser partes fundamentais de futuros sistemas de navegação, veículos autônomos e redes de alerta precoce de terremotos”.

O experimento por si só também responderá a algumas questões ainda em aberto da física moderna.
Um exemplo dessas questões é: o tempo pode exibir comportamento quântico ou é algo fundamentalmente clássico?

Esta questão é provavelmente crucial para o ‘Santo Graal’ da física teórica: ou seja, encontrar uma teoria conjunta que relacione os fenômenos quânticos e gravitacionais.

Um artigo foi publicado na revista Science Advances.

Fonte: Scientific American

terça-feira, 8 de outubro de 2019

Novas perspectivas sobre o Universo

Os cientistas James Peebles, Michel Mayor e Didier Queloz levaram o Prêmio Nobel de Física de 2019.
© Nobel Prize/Johan Jarnestad (explorando o cosmos)

O anúncio foi divulgado na manhã desta terça-feira pelo comitê da Academia Real de Ciências da Suécia, em Estocolmo. Na avaliação da instituição, o trabalho dos três físicos introduziu uma nova compreensão da história e estrutura do Universo através das teorias de cosmologia física desenvolvidas por Peebles e a descoberta de um exoplaneta por Mayor e Queloz.

O Prêmio Nobel de Física deste ano recompensa nova compreensão da estrutura do Universo e a primeira descoberta de um planeta em órbita n uma estrela do tipo solar fora do nosso Sistema Solar.
As ideias de James Peebles sobre cosmologia física enriqueceu todo o campo de pesquisa e lançou as bases para a transformação da cosmologia nos últimos cinquenta anos, da especulação à ciência. Seu referencial teórico, desenvolvido desde meados da década de 1960, é a base de estudos contemporâneos sobre o Universo.

O modelo do Big Bang descreve o Universo a partir dos primeiros momentos, quase 14 bilhões de anos atrás, quando estava extremamente quente e denso. Desde então, o Universo vem se expandindo, tornando-se maior e mais frio. Após 400.000 anos do Big Bang, o Universo se tornou transparente e os raios de luz foram capazes de viajar através espaço. Ainda hoje, essa radiação antiga está por toda parte, onde muitos dos segredos do Universo estão escondidos.

A cosmologia moderna é baseada na teoria da relatividade geral de Albert Einstein e assume uma era inicial, o Big Bang, quando o Universo era extremamente quente e denso. Um pouco menos de 400.000 anos após o Big Bang, a temperatura diminuiu para cerca de 3.000 K, permitindo que os elétrons se combinassem com núcleos para a formação de átomos.

Porque não sobraram partículas carregadas que pudessem interagir facilmente com os fótons, o Universo se tornou transparente à luz. Esta radiação é agora visível como a Cosmic Microwave Background  (CMB). Devido ao desvio para o vermelho cosmológico, sua temperatura atualmente é de penas 2,7K, um fator de cerca de 1.100 menores desde a dissociação de matéria e radiação. A radiação cósmica de fundo de micro-ondas consiste de ondas eletromagnéticas na frequência de rádio que permeiam todo o espaço.

Por intermédio de cálculos teóricos, James Peebles foi capaz de interpretar esses traços desde a infância do Universo e descubriu novos processos físicos.

Os resultados nos mostraram um Universo em que apenas 5% de seu conteúdo é conhecido, compondo a matéria ordinária que constituída por estrelas, planetas, árvores e nós. O restante, 95%, é desconhecido, perfazendo a matéria escura e energia escura. Isso é um mistério e um desafio à física moderna.

Em outubro de 1995, Michel Mayor e Didier Queloz anunciaram a primeira descoberta de um planeta fora do nosso sistema solar, um exoplaneta, orbitando uma estrela do tipo solar em nossa galáxia, a Via Láctea. No Observatório Haute-Provence, no sul da França, usando instrumentos feitos sob medida, eles foram capazes de ver o exoplaneta 51 Pegasi b, uma bola gasosa comparável com o maior gigante gasoso do Sistema Solar, o planeta Júpiter.

Esta descoberta iniciou uma revolução na astronomia e mais de 4.000 exoplanetas já foram encontrados na Via Láctea. Mundos novos e estranhos ainda estão sendo descobertos, com uma incrível variedade de tamanhos, formas e órbitas. Eles desafiam nossas ideias preconcebidas sobre sistemas planetários e estão forçando os cientistas a revisar suas teorias dos processos físicos por trás das origens dos planetas. Com vários projetos planejados para começar a procurar exoplanetas, podemos encontrar uma resposta para a eterna questão de saber se existe vida lá fora.

Os Laureados deste ano transformaram nossos pensamentos sobre o cosmos. Enquanto as descobertas teóricas de James Peebles contribuiu para a nossa compreensão de como o Universo evoluiu após o Big Bang, Michel Mayor e Didier Queloz explorou nossos bairros cósmicos em busca de planetas desconhecidos. Suas descobertas mudou para sempre nossas concepções do mundo.

James Peebles, professor da Universidade de Princeton, EUA, levará metade do prêmio de 9 milhões de coroas suecas, o equivalente a R$ 3,7 milhões. O restante será dividido entre Michel Mayor, docente da Universidade de Genebra, e Didier Queloz, que integra a mesma instituição, além da Universidade de Cambridge, no Reino Unido.

Fonte: The Royal Swedish Academy of Sciences

domingo, 25 de agosto de 2019

Imagem de um emaranhamento quântico

Pela primeira vez na história, pesquisadores conseguiram tirar uma foto de um tipo forte de emaranhamento quântico, chamado emaranhamento de Bell, revelando assim evidências visuais de um fenômeno misterioso que Albert Einstein, perplexo, chamava de “ação fantasmagórica à distância”.
© U. Glasgow (emaranhamento de Bell)

Duas partículas que interagem uma com a outra, como dois fótons passando por um divisor de feixes, podem, às vezes, continuar conectadas, e compartilhar instantaneamente seus estados físicos, a despeito da distância que as separa. Essa conexão é conhecida como emaranhamento quântico, e perpassa o campo da mecânica quântica.

Einstein achava que a mecânica quântica era “fantasmagórica” por causa da instantaneidade dessa aparente interação à distância entre duas partículas emaranhadas, um fenômeno que parecia incompatível com alguns conceitos de sua teoria da relatividade restrita.

Mais tarde, John Bell formalizou o conceito de interação não-local, descrevendo uma forma forte de emaranhamento que causa esse efeito fantasmagórico. Embora o emaranhamento de Bell esteja sendo usado em aplicações práticas, como computação e criptografia quânticas, ele nunca havia sido captado em uma única imagem até hoje.

Os físicos da Universidade de Glasgow, na Escócia, desenvolveram um sistema que dispara um fluxo de fótons emaranhados, a partir de uma fonte quântica de luz, sobre “objetos não convencionais” que são exibidos em materiais de cristal líquido, que alteram a fase dos fótons à medida que eles passam através desses materiais.

A equipe montou uma câmera muito sensível capaz de detectar fótons individuais, que só tiraria fotos quando detectasse tanto um fóton quanto seu “gêmeo” emaranhado, criando um registro visível do emaranhamento dos fótons.

“A imagem que conseguimos captar é uma demonstração elegante de uma propriedade fundamental da natureza, vista pela primeira vez na forma de uma imagem”, explica o autor principal do estudo, Paul-Antoine Moreau, da Faculdade de Física e Astronomia da Universidade de Glasgow. “É um resultado animador, que pode gerar avanços no emergente campo da computação quântica, e levar a novos tipos de imagiologia”.

O artigo, chamado “Imaging Bell-type nonlocal behavior”, foi publicado na Science Advances.

Fonte: Universidade de Glasgow

quarta-feira, 3 de julho de 2019

A criação de plasma de quarks e glúons

Uma ínfima fração de segundo após o Big Bang, o Universo material era constituído por um plasma composto pelas partículas elementares conhecidas como quarks e glúons. É o que propõe o chamado modelo padrão sobre a origem do Universo.
© CERN/LHC (colisão de prótons com núcleos atômicos de chumbo)

Com a rápida expansão e o consequente resfriamento, aquele meio informe e intensamente dinâmico se fragmentou e cada pequeno conjunto de quarks e glúons deu origem a uma partícula composta, o hádron. Assim foram formados, por exemplo, os prótons, cada qual constituído por dois quarks do tipo up e um quark do tipo down (os dois tipos com as menores massas entre todos os quarks), interagindo por meio de glúons.

Essa situação primordial tem sido reproduzida no LHC, o Grande Colisor de Hádrons instalado no CERN, a Organização Europeia para a Pesquisa Nuclear, na fronteira entre a França e a Suíça, e também no RHIC, o Colisor Relativístico de Íons Pesados, instalado no Brookhaven National Laboratory, nos Estados Unidos.

As primeiras detecções do plasma de quarks e glúons foram feitas a partir da colisão de dois núcleos atômicos de elementos pesados, como chumbo e ouro. Agora, a colaboração ALICE, um dos grupos internacionais de pesquisadores que atua no LHC, obteve uma das “assinaturas” características do plasma de quarks e glúons por meio da colisão de prótons com núcleos de chumbo.

Esse resultado, conseguido a partir de precursores muito mais leves, foi alcançado graças ao altíssimo patamar de energia das partículas durante a colisão, de 5,02 TeV (5,02 teraelétrons-volt ou 5,02 x 1012 elétrons-volt).

O físico brasileiro Henrique Zanoli, que participa da colaboração ALICE, estudou essa colisão em seu trabalho de doutoramento.

“O experimento apresentou uma anisotropia azimutal na distribuição das partículas geradas pela colisão. Isso quer dizer que as partículas resultantes da colisão não foram produzidas nas mesmas quantidades em todas as direções. O padrão de distribuição dos elétrons que observamos é característico da assinatura do plasma de quarks e glúons,” disse Zanoli.

Segundo Zanoli, a produção de quarks pesados ocorreu em um momento em que a densidade de energia do sistema ainda estava extremamente alta, e sua evolução é uma interessante ferramenta para estudar a presença do plasma de quarks e glúons.

“Esses quarks pesados, que são produzidos antes do plasma e o atravessam, fornecem informações sobre o plasma, assim como uma emissão de pósitrons, que atravessa o corpo humano, fornece informações sobre esse corpo em uma tomografia. Se as partículas estudadas tivessem sido produzidas no fim do processo, essa analogia não seria válida e não poderíamos afirmar, com base no resultado final, quais são as características do plasma de quarks e glúons formado. Mas, como foram produzidos no início, os quarks pesados se tornam marcadores muito confiáveis,” acrescentou Zanoli.

O plasma de quarks e glúons é tema de muita pesquisa na atualidade. E isso principalmente por dois motivos. Primeiro, porque agora é possível produzir o plasma experimentalmente em colisores, como o LHC e o RHIC. Segundo, e essa é a maior motivação dos experimentos, porque possibilita compreender o Universo primordial e também o que ocorre em objetos astrofísicos, como as estrelas de nêutrons.

A produção do plasma de quarks e glúons em laboratório se tornou possível devido à altíssima densidade de energia alcançada nos grandes colisores da atualidade.

Um patamar de 5 TeV não é tão alto quando se pensa em um objeto macroscópico, constituído por uma quantidade enorme de partículas distribuídas em um grande volume. Mas, quando se divide 5 TeV pelo volume de um próton, o resultado é uma densidade energética a que somente agora a humanidade teve acesso em escala de laboratório.

Fonte: Physical Review Letters

terça-feira, 11 de junho de 2019

Salvando o gato de Schrödinger

O famoso paradoxo gato de Schrödinger foi elaborado como um símbolo da possibilidade de sobreposição de estados e da imprevisibilidade que são característicos do mundo quântico.
© Kat Stockton (gato de Schrödinger)

Uma equipe de pesquisadores diz ter descoberto um modo de capturar e salvar o famoso animal, antecipando seus saltos e agindo na hora exata para salvá-lo da tragédia. No processo, eles poderiam derrubar um dos mais antigos fundamentos da física quântica.

A descoberta, feita por um time de físicos da Universidade de Yale, nos Estados Unidos, permite criar um sistema que avisa antecipadamente da iminência de um salto quântico em átomos artificiais contendo informação quântica.

O gato de Schrödinger é um famoso paradoxo usado para ilustrar o conceito de sobreposição, ou seja, a possibilidade de dois estados opostos existirem simultaneamente, e a imprevisibilidade na física quântica. A ideia é que um gato é colocado em uma caixa selada, com uma fonte radioativa e um veneno que será ativado se ocorrer o decaimento em algum átomo da substância radioativa.

A teoria da sobreposição da física quântica sugere que, até que alguém abra a caixa, o gato está ao mesmo tempo vivo e morto, numa espécie de sobreposição desses estados. O ato de abrir a caixa para observar o gato causaria uma mudança abrupta e aleatória em seu estado quântico, forçando-o a estar vivo ou morto.

Um salto quântico é a mudança aleatória e discreta (não-contínua) no estado que ocorre a partir do ato da observação.

O experimento, realizado no laboratório da Universidade de Yale pelo professor Michel Devoret e proposto pelo autor principal do artigo, Zlatko Minev, permite pela primeira vez espiar o mecanismo do salto quântico. Os resultados revelam uma descoberta surpreendente que contradiz a visão consagrada, estabelecida pelo físico dinamarquês Niels Bohr: a de que os saltos quânticos não são nem abruptos nem tão aleatórios como se pensava anteriormente.

Para um objeto tão pequeno como um elétron, uma molécula, ou um átomo artificial contendo informação quântica, chamada de “qubit”, um salto atômico é a transição repentina de um de seus estados de energia para outro. Nos computadores quânticos, ainda em desenvolvimento, pesquisadores precisam lidar com os saltos dos qubits, que são manifestações de erros de cálculos.
Os enigmáticos saltos quânticos foram teorizados por Bohr há mais de um século, mas não foram observados em átomos até os anos 1980.

“Esses saltos ocorrem todas as vezes que medimos um qubit”, explica Devoret. “Os saltos quânticos são conhecidos por serem imprevisíveis a longo prazo”. Apesar disso, adiciona Minev, “queríamos sabemos se seria possível conseguir um sinal de aviso prévio que um salto está prestes a ocorrer”. Minev conta que o experimento foi inspirado por uma previsão teórica de Howard Carmichael, da Universidade de Auckland, na Nova Zelândia, um pioneiro na trajetória da teoria quântica e um dos co-autores do estudo.

Além de seus impactos fundamentais, os resultados possivelmente trarão um avanço enorme no entendimento e no controle da informação quântica. Pesquisadores dizem que administrar com segurança a informação quântica e corrigir os erros quando eles ocorrem são os desafios principais no desenvolvimento de computadores quânticos totalmente eficientes.

A equipe de Yale usou uma abordagem especial para observar, indiretamente, um átomo artificial supercondutor, recorrendo a três geradores de microondas que irradiavam o átomo que estava aprisionado em uma cavidade tridimensional feita de alumínio.  O método de monitoramento duplamente indireto, que Minev criou para circuitos supercondutores, permite aos pesquisadores observarem o átomo com uma eficácia nunca antes vista.

A radiação em comprimento de micro-ondas agita o átomo artificial, enquanto ele é observado simultaneamente, o que resulta em saltos quânticos. O minúsculo indicativo quântico da ocorrência desses saltos pode ser amplificado sem perda de temperatura para a sala. Isso permite que o sinal seja monitorado em tempo real. Esse arranjo permitiu que os pesquisadores vissem uma repentina ausência de fótons de detecção (fótons emitidos por uma estado auxiliar do átomo quando agitado pelas micro-ondas); essa pequena queda nos fótons é o aviso prévio de que um salto quântico vai ocorrer.

“Esse belo efeito que o experimento revelou é o aumento da coerência durante o salto, apesar da observação”, diz Devoret. Minev adiciona: “Podemos usar isso não apenas para capturar o salto, mas também para revertê-lo.”

Esse é um ponto crucial, segundo os pesquisadores. Enquanto saltos quânticos aparecem pontualmente e aleatoriamente a longo prazo, reverter um salto quântico significa que a evolução do estado quântico possui, pelo menos em parte, um caráter determinista e não aleatório; o salto sempre ocorre da mesma maneira previsível a partir de seu início aleatório.

“Os saltos quânticos de um átomo são, de certa forma, análogos à erupção de um vulcão”, explica Minev. “Eles são completamente imprevisíveis a longo termo. Porém, com o monitoramento correto, podemos detectar o aviso prévio de um desastre iminente e agir sobre ele antes que ocorra.”

O estudo em questão foi publicado na revista Nature.

Fonte: Yale University

domingo, 2 de junho de 2019

Observação da radiação Hawking

Físicos do Instituto de Tecnologia de Israel (Technion) confirmaram as previsões de uma teoria de Stephen Hawking sobre buracos negros, utilizando um análogo construído em laboratório.


© Revista Física (ilustração de um buraco negro)

Ao tentar aplicar as leis físicas que regem o calor nos buracos negros, o físico Stephen Hawking percebeu que estes objetos devem emitir radiação de suas superfícies, chamada Radiação Hawking. O mecanismo concatena a mecânica quântica com a gravidade.

Stephen Hawking apresentou sua teoria em 1974, depois de analisar o trabalho de outro físico, Jacob Bekenstein, da Universidade de Princeton. Para Bekenstein, a entropia de um buraco negro, ou seja, o caos de um sistema relativo ao seu volume, pressão, temperatura e energia, era proporcional à área de seu horizonte de eventos, ponto-limite do qual não é mais possível escapar desta região do espaço.

A entropia de um buraco negro é dada pela equação de Bekenstein-Hawking: S=k.A/4.lP2 , onde A é a área, k é a constante de Boltzmann e lP é o comprimento de Planck que é expreso por lP=G.h/2π.c3)1/2  , sendo h a constante de Planck, G a constante gravitacional e c a velocidade da luz.

Infelizmente, ainda não é posível se aproximar o suficiente de um buraco negro para provar ou refutar a teoria. Assim, os físicos testaram um buraco negro análogo de laboratório.

Os pesquisadores construíram tal análogo de buraco negro usando um material quântico chamado de condensado de Bose-Einstein. Neste condensado de Bose-Einstein, o horizonte de eventos do buraco negro artificial representa o ponto sem retorno para o som, ao invés da luz.

Os cientistas criaram um condensado de Bose-Einstein capturando 8.000 átomos de rubídio em um feixe de laser. Os condensados ​​de Bose-Einstein são sistemas de átomos ultrafrios, onde estranhos fenômenos quânticos se tornam visíveis em escalas maiores.

Os pesquisadores em seguida utilizaram um segundo laser para aumentar a energia potencial de apenas um lado do condensado de Bose-Einstein, tornando-o mais denso naquele lado. Uma transição brusca (como um horizonte de eventos) separa a área mais densa (fora do buraco negro) da área menos densa (dentro do buraco negro).

Do ponto de vista dos cientistas, ao olhar para o experimento, parece que todos os átomos de rubídio estão se movendo. Fora do buraco negro, na região mais densa, a velocidade do som é mais rápida do que a velocidade deste fluxo, de modo que as ondas sonoras podem se mover em qualquer direção. Na região menos densa, dentro do buraco negro, a velocidade do som é mais lenta, então as ondas sonoras apenas se afastam da transição brusca e penetram no buraco negro.

Esta experiência imita uma das características mais importantes de um buraco negro: fora do objeto, a luz pode se afastar dele ou entrar nele. Mas, uma vez dentro, não pode escapar. O análogo de laboratório substitui a luz pelo som, e os pesquisadores podem medir as ondas sonoras dentro e fora de seu “horizonte de eventos”. O sinal da radiação Hawking é uma correlação entre estes dois tipos de ondas.

Isto foi suficiente para extrair informações importantes sobre a radiação, ou seja, que ela tem um espectro térmico com uma temperatura determinada pelo que seria o análogo da gravidade neste sistema artificial.

Isto significa que o buraco negro artificial emitiu um espectro contínuo de comprimentos de onda, em vez de comprimentos de onda preferidos. Estas observações e as temperaturas estavam de acordo com o que foi previsto na teoria de Hawking.

Segundo o principal autor do estudo, o físico Jeff Steinhauer, isso mostra que “os cálculos de Hawking estavam corretos”. Contudo, provavelmente são um efeito real que acontece nestes tipos de sistemas.

Esta pesquisa é mais um exemplo da utilização de análogos para estudarmos fenômenos físicos impossíveis de serem observados. Eles servem como uma verificação importante das teorias que orientam nossa compreensão de coisas inacessíveis.

Agora, os pesquisadores esperam refazer repetidamente o experimento, a fim de determinar como a radiação Hawking muda com o tempo.

Quem sabe um dia possamos medir essas propriedades em buracos negros reais.

Fonte: Nature

sábado, 23 de março de 2019

Será que ondas sonoras transportam massa?


É perdoável pensar que nossa compreensão da física clássica já tenha atingido seu máximo ao longo dos quatro séculos desde que Isaac Newton inventou suas leis de movimento. Mas novas pesquisas surpreendentes mostram que ainda há segredos esperando para serem encontrados, escondidos à vista de todos; ou, pelo menos neste caso, ao alcance da voz.
© Shustterstock (ilustração de ondas sonoras)

Um grupo de cientistas teorizou que as ondas sonoras possuem massa, o que significa que os sons seriam diretamente afetados pela gravidade. Eles sugerem que os fônons, excitações coletivas parecidas com partículas, responsáveis pelo transporte de ondas sonoras através de um meio, podem exibir uma pequena quantidade de massa em um campo gravitacional. "Seria de se esperar que resultados de física clássica como esse já fossem conhecidos há muito tempo," diz Angelo Esposito, da Universidade de Columbia, principal autor do estudo.

Esposito e seus colegas se basearam em um artigo anterior, publicado no ano passado, no qual Alberto Nicolis, da Columbia, e Riccardo Penco, da Universidade Carnegie Mellon, sugeriram pela primeira vez que os fônons poderiam ter massa em um superfluido. O estudo mais recente, no entanto, mostra que este efeito também deve ser válido em outros materiais, incluindo líquidos e sólidos regulares, e até mesmo no próprio ar.

E, embora se espere que a quantidade de massa transportada pelos fônons seja pequena, comparável a um átomo de hidrogênio, cerca de 10-24gramas, ela pode, na verdade, ser mensurável. Exceto que, se você fosse medí-la, encontraria algo profundamente estranho: a massa dos fônons seria negativa, significando que eles cairiam "para cima". Com o tempo, sua trajetória gradualmente se afastaria de uma fonte gravitacional como a Terra. "Se tivessem massa gravitacional positiva, eles cairiam para baixo," diz Penco.

E a extensão da "queda" é igualmente pequena, com a variação dependendo do meio pelo qual o fônon está passando. Na água, onde o som se move a 1,5 quilômetros por segundo, a massa negativa do fônon faz com que se desloque a cerca de 1 grau por segundo. Mas isso corresponde a uma mudança de 1 grau ao longo de 15 quilômetros, o que seria extremamente difícil de medir.

Ainda que possa ser difícil, tal medida ainda deve ser possível. Esposito observa que, para distinguir a massa dos fônons, é possível procurá-los em um meio onde a velocidade do som seja muito lenta. Isso pode ser possível no hélio superfluido, onde a velocidade do som pode cair para centenas de metros por segundo ou menos, e a passagem de um único fônon pode mudar o equivalente a um átomo de material.

Alternativamente, em vez de buscar efeitos minúsculos ampliados em substâncias exóticas, os pesquisadores podem procurar por sinais mais óbvios de fônons portadores de massa estudando de perto ondas sonoras extremamente intensas. Os terremotos oferecem uma possibilidade, diz Esposito. De acordo com seus cálculos, um tremor de magnitude 9 liberaria energia suficiente para que a mudança resultante na aceleração gravitacional da onda sonora do terremoto pudesse ser mensurável usando relógios atômicos. (Embora as técnicas atuais não sejam suficientemente sensíveis para detectar o campo gravitacional de uma onda sísmica, futuros avanços na tecnologia podem tornar isso possível.)

É improvável que as ondas sonoras que têm massa tenham um grande impacto na vida cotidiana, mas a possibilidade que algo tão fundamental tenha passado despercebida por tanto tempo é intrigante.

Um artigo foi publicado no periódico Physical Review Letters.

Fonte: Scientific American

Levitação de objetos macroscópicos com luz


Pesquisadores da Caltech (Instituto de Tecnologia da Califórnia) estão desenvolvendo uma maneira de fazer levitar e impulsionar objetos usando apenas a luz, através da criação de determinados padrões, em nanoescala, na superfície dos objetos.


© H. Atwater (ilustração de objeto nano-modelado reorientado)

Embora ainda esteja na etapa teórica, o trabalho é um passo em direção ao desenvolvimento de uma espaçonave que poderia alcançar o planeta mais próximo fora do nosso Sistema Solar em 20 anos, alimentada e acelerada apenas pela luz.

A pesquisa foi feita no laboratório de Harry Atwater, Howard Hughes Professor de Física Aplicada e Ciência de Materiais na Divisão de Engenharia e Ciências Aplicadas da Caltech.

Décadas atrás, o desenvolvimento das chamadas “pinças ópticas” permitiu que os cientistas movessem e manipulassem objetos minúsculos, como nanopartículas, usando a pressão radiativa de um feixe de luz do laser nitidamente focado. Este trabalho formou a base para o Prêmio Nobel de Física de 2018. No entanto, as pinças só são capazes de manipular objetos muito pequenos e apenas a distâncias muito curtas.

Ognjen Ilic, pós-doutorando e autor do estudo, oferece uma analogia: "Pode-se levitar uma bola de pingue-pongue usando um fluxo constante de ar de um secador de cabelo. Mas não funcionaria se a bola de pingue-pongue fosse muito grande ou se estivesse muito longe do secador de cabelo, e assim por diante".

Com essa nova pesquisa, objetos de diversas formas e tamanhos, de micrômetros a metros, poderiam ser manipulados com um feixe de luz. A chave é criar padrões específicos em nanoescala na superfície de um objeto. Esse padrão interage com a luz de tal forma que o objeto pode se endireitar quando perturbado, criando um torque de restauração para mantê-lo no feixe de luz. Assim, em vez de exigir raios laser altamente focalizados, o padrão dos objetos é projetado para "codificar" sua própria estabilidade. A fonte de luz também pode estar a milhões de quilômetros de distância.

"Nós criamos um método que pode levitar objetos macroscópicos", diz Atwater, que também é diretor do Centro Conjunto de Fotossíntese Artificial. "Há uma aplicação audaciosa e interessante para usar essa técnica como meio de propulsão de uma nova geração de naves espaciais. Estamos longe de realmente fazer isso, mas estamos no processo de testar os princípios."

Em teoria, essa espaçonave poderia ser modelada com estruturas em nanoescala e acelerada por uma luz laser baseada na Terra. Sem precisar carregar combustível, a espaçonave pode alcançar velocidades muito altas, até relativísticas, e possivelmente viajar para outras estrelas.

Atwater também prevê que a tecnologia poderia ser usada aqui na Terra para permitir a rápida fabricação de objetos cada vez menores, como placas de circuito.

Um artigo descrevendo a pesquisa aparece na edição on-line da revista Nature Photonics.

Fonte: Caltech

terça-feira, 2 de outubro de 2018

Ferramentas feitas de luz

A Academia Real de Ciências da Suécia decidiu atribuir o Prêmio Nobel de Física de 2018 devido às invenções inovadoras no campo da física a laser.

ilustração do pulso de laser

© Johan Jarnestad (ilustração do pulso de laser)

Os laureados foram Arthur Ashkin, de 96 anos, do Bell Laboratories (EUA), pelas pinças ópticas que possibilitam a manipulação de pequenas partículas e sua aplicação aos sistemas biológicos; Gérard Mourou, de 74 anos, da École Polytechnique (França) e Universidade de Michigan (EUA), em conjunto com Donna Strickland, de 59 anos, da Universidade de Waterloo (Canadá), pelo método de geração de pulsos ópticos ultracurtos de alta intensidade. Os físicos Strickland e Mourou desenvolveram seu trabalho juntos na Universidade de Rochester, em Nova York, nos anos 80.

Os três compartilharão o prêmio de 9 milhões de coroas suecas, equivalente a 4 milhões de reais, sendo metade atribuída à Ashkin.

Em toda a história do Prêmio Nobel, criado em 1901, apenas duas mulheres tinham recebido o prêmio de Física: Marie Curie, em 1903, e Maria Goeppert-Mayer, em 1963.

Estas invenções revolucionaram a física a laser, onde objetos extremamente pequenos e processos incrivelmente rápidos estão agora sendo vistos sob uma nova luz. Instrumentos avançados de precisão estão abrindo áreas de pesquisa inexploradas e uma infinidade de aplicações industriais e médicas.

Usando uma abordagem engenhosa, eles conseguiram criar pulsos de laser de alta intensidade ultracurtos sem destruir o material. Primeiro eles esticaram os pulsos de laser a tempo de reduzir seu pico de potência, depois os amplicaram e finalmente os comprimiram. Se um pulso é comprimido no tempo e se torna mais curto, então mais luz é reunida no mesmo espaço minúsculo, a intensidade do pulso aumenta dramaticamente.

A técnica inventada por Strickland e Mourou, chamada de Chirped Pulse Amplification (CPA), logo se tornou padrão para os lasers subsequentes de alta intensidade. Seus usos incluem os milhões de cirurgias oculares corretivas que são realizadas todos os anos usando os raios laser mais nítidos.

Arthur Ashkin teve um sonho: imagine se raios de luz pudessem ser postos em ação e mover objetos. Na série Star Trek que começou em meados dos anos 1960, um raio trator pode ser usado para recuperar objetos, até mesmo asteroides no espaço, sem tocá-los. Claro, isso soa como pura ficção científica.

Podemos sentir que os raios do Sol carregam energia, embora a pressão do feixe é pequeno demais para que possamos sentir um pequeno cutucão. Mas sua força poderia ser suficiente para empurrar minúsculas partículas e átomos?

Imediatamente após a invenção do primeiro laser em 1960, Ashkin começou a experimentar com o novo instrumento na Bell Laboratories. Em um laser, as ondas de luz se movem de forma coerente, diferentemente luz branca comum em que os feixes são misturados em todas as cores do arco-íris e espalhados em todas as direções.

Ashkin percebeu que um laser seria a ferramenta perfeita para fazer com que os feixes de luz pudessem mover pequenas. Ele iluminou esferas transparentes de tamanho micrométrico e, imediatamente fez as esferas se moverem. Ao mesmo tempo, Ashkin ficou surpreso com a forma como as esferas foram deslocadas em direção ao meio do feixe, onde era mais intenso. A explicação é que num feixe de laser a sua intensidade diminui do centro para os lados. Portanto, a pressão da radiação que a luz do laser exerce sobre as partículas também varia, impulsionando-as em direção ao meio d o feixe, que mantém as partículas no centro.

Para também segurar as partículas na direção do feixe, Ashkin adicionou uma lente forte para focar a luz do laser. As partículas foram então atraídas para o ponto que tinha a maior intensidade de luz. Assim, nasceu uma armadilha, que veio a ser conhecida como pinças ópticas.

As inúmeras áreas de aplicação ainda não foram completamente exploradas, tais como: dispositivos eletrônicos mais rápidos, células solares mais eficazes, melhores catalisadores, aceleradores mais potentes, novas fontes de energia, ou manipulações farmacêuticas.

No entanto, mesmo agora essas célebres invenções nos permitem remexer no micromundo no melhor espírito de Alfred Nobel, para o maior benefício para a humanidade.

Fonte: The Royal Swedish Academy of Sciences

segunda-feira, 30 de julho de 2018

A ligação do bóson de Higgs com o quark top

O tão esperado acoplamento do bóson de Higgs com o quark top foi, finalmente, obtido no Large Hadron Collider (LHC), o grande colisor de hádrons, situado na fronteira franco-suíça.

ilustração do campo Brout-Englert-Higgs

© CERN/D. Dominguez (ilustração do campo Brout-Englert-Higgs)

O evento foi detectado de forma independente pelas duas principais equipes internacionais que atuam no LHC: a CMS e a Atlas.

O resultado é uma robusta confirmação da acurácia do chamado Modelo Padrão da Física de Partículas, construído coletivamente desde o início dos anos 1960.

“Como o bóson de Higgs participa do processo que produz as massas de todas as partículas, esperava-se que ele interagisse com as partículas proporcionalmente às suas massas. Isto é, que quanto mais pesada a partícula, maior fosse sua interação com o bóson. Trata-se de uma característica muito específica, que, segundo o Modelo Padrão, apenas o bóson de Higgs possui. Então, investigar se isso realmente ocorre experimentalmente é uma maneira muito forte de corroborar o modelo”, disse Sérgio Novaes, professor titular da Universidade Estadual Paulista (Unesp) e integrante da colaboração internacional CMS.

“Com as partículas leves, o acoplamento é pequeno e difícil de medir. Havia, portanto, uma grande expectativa em relação ao acoplamento do bóson de Higgs com o quark top, que é uma partícula muito pesada, mais pesada inclusive do que o próprio Higgs, com massa superior a 172 GeV/c2. Finalmente, conseguimos detectar e medir essa interação. E chegamos à conclusão de que, efetivamente, ocorre aquilo que havia sido predito pelo Modelo Padrão. O Higgs acopla-se proporcionalmente à massa do top. Foi uma grande confirmação do modelo”, disse Novaes.

A interação do bóson de Higgs com o quark top só foi possível devido ao aumento de energia do LHC. No evento em questão, a colisão de dois prótons gera um par quark-antiquark top (cada componente com mais de 172 GeV/c2) e um bóson de Higgs (com cerca de 125 GeV/c2). Isso corresponde quase à massa de 500 prótons. Então, no patamar atual de energia do colisor, de 13 TeV (13 trilhões de elétrons-volt), o choque de dois prótons produz massa equivalente a 500 prótons, e o restante da energia inicial manifesta-se sob a forma da energia das partículas produzidas. Aqui, vale lembrar que a energia se converte em massa, segundo a famosa equação de Einstein, E = m.c2, na qual E é a energia; m, a massa; e c, a velocidade da luz no vácuo.

Além disso, quanto maior a energia do colisor, maior a definição entre dois pontos observados. Com a energia atual do LHC, é possível diferenciar pontos situados a apenas 10-18 m. Para efeito de comparação, essa distância é um bilhão de vezes menor do que aquela na qual opera a nanotecnologia [10-9 m].

O bóson de Higgs – assim chamado em homenagem ao seu propositor, o físico britânico Peter Higgs, nascido em 1929 e Prêmio Nobel de Física de 2013 – foi incorporado ao Modelo Padrão na década de 1960, para resolver um problema teórico abstrato: que o modelo contivesse um ingrediente capaz de conferir massa às partículas que precisavam ter massa e, ao mesmo tempo, que permanecesse “renormalizável”, isto é, capaz de fazer predições.

Isso foi um dilema até que o físico norte-americano Steven Weinberg – ganhador do Prêmio Nobel de Física de 1979, junto com o paquistanês Abdus Salam e o norte-americano Sheldon Glashow – tivesse a ideia de agregar ao modelo o chamado “mecanismo de Higgs”.

“Não havia nenhuma evidência experimental da existência do bóson de Higgs. Sua proposição foi mais uma aventura teórica do que qualquer hipótese experimentalmente verificável. Tanto é que foram necessários 45 anos até a partícula ser finalmente detectada e anunciada, em 4 de julho de 2012”, disse Novaes.

A dificuldade da obtenção experimental é fácil de entender. Com massa de aproximadamente 125 GeV/c2, mais de 133 vezes a massa do próton, o bóson de Higgs é, depois do quark top, a segunda partícula mais massiva do Modelo Padrão. Sua produção, por uma ínfima fração de segundo, só é possível em contextos de altíssima energia, como aqueles que teriam existido logo depois do Big Bang ou os agora alcançados no LHC.

“Não houve, durante esses 45 anos, nenhuma hipótese alternativa que, ao mesmo tempo, conferisse massa às partículas e explicasse a interação entre elas. Trabalhei com isso desde o meu mestrado. Para mim, é um prazer enorme ter participado da detecção do bóson de Higgs em 2012. E ver, agora, mais uma confirmação dessa proposta teórica”, disse Novaes, atualmente no LHC, em Genebra, Suíça.

A afirmação de que o bóson de Higgs confere massa às partículas dá margem, às vezes, a uma interpretação equivocada. O motivo é que se imagina uma partícula entregando massa a outra pontualmente, mas não é disso que se trata.

A melhor ferramenta disponível para descrever esse nível da natureza é a teoria de campos. Nos marcos da mecânica quântica, as partículas não são corpúsculos diminutos, tais como concebidas na Física Clássica. Partículas são excitações do campo. Toda partícula é, na realidade, o quantum de um determinado campo. O fóton é o quantum do campo eletromagnético. O elétron é o quantum do campo do elétron. O bóson de Higgs é o quantum do campo de Higgs. E assim por diante. Segundo o Modelo Padrão, é o campo de Higgs que confere massa às partículas. Ao se manifestarem no espaço, as partículas interagem com ele. E, quanto maior a interação, maior a massa.

Assim, por exemplo, embora sejam idênticos quanto à carga (2/3) e ao spin (1/2), os quarks up e top apresentam enorme diferença de massa. A massa do top é quase 80 mil vezes maior. E isso é proporcional ao seu acoplamento ao campo de Higgs.

“O fato de a constante de acoplamento do bóson de Higgs ser proporcional à massa das partículas com as quais ele se acopla é uma predição universal do Modelo Padrão. Essa predição já havia sido corroborada no caso de partículas mais leves. Agora, o acoplamento com o quark top vem reforçar, ainda mais, a efetividade do modelo na descrição das partículas elementares e de suas interações”, disse Novaes.

A detecção do acoplamento do bóson de Higgs com o quark top decorreu da superação de enormes dificuldades experimentais. Uma dificuldade é que as três partículas resultantes da colisão (o quark top, o antiquark top e o bóson de Higgs) decaem, muito rapidamente, em outros objetos. O quark top decai no bóson W e no quark bottom. O W, por sua vez, decai em outras partículas.

Ora, o quark bottom é um objeto produzido copiosamente em colisões de prótons. Então, um grande desafio é distinguir o quark bottom originado pelo quark top de um pano de fundo extremamente abundante em quarks bottom. Além disso, o bóson de Higgs também decai em vários objetos. Tudo isso em um contexto no qual há cerca de 40 interações ocorrendo ao mesmo tempo.

“O estado final detectado é muito complexo e exige uma engenharia de big data fantástica, para que o sinal de interesse possa ser extraído desse background superabundante. É aquela história de achar umas poucas agulhas no palheiro”, disse Novaes.

E o “palheiro” é realmente colossal. Pois, a cada 25 bilionésimos de segundo, dois feixes, cada qual com 100 bilhões de prótons, colidem durante a atividade do LHC, gerando a maior quantidade de dados já produzida na face da Terra.

A descoberta foi descrita no periódico Physical Review Letters.

Fonte: CERN & Agência FAPESP