domingo, 25 de agosto de 2019

Imagem de um emaranhamento quântico

Pela primeira vez na história, pesquisadores conseguiram tirar uma foto de um tipo forte de emaranhamento quântico, chamado emaranhamento de Bell, revelando assim evidências visuais de um fenômeno misterioso que Albert Einstein, perplexo, chamava de “ação fantasmagórica à distância”.
© U. Glasgow (emaranhamento de Bell)

Duas partículas que interagem uma com a outra, como dois fótons passando por um divisor de feixes, podem, às vezes, continuar conectadas, e compartilhar instantaneamente seus estados físicos, a despeito da distância que as separa. Essa conexão é conhecida como emaranhamento quântico, e perpassa o campo da mecânica quântica.

Einstein achava que a mecânica quântica era “fantasmagórica” por causa da instantaneidade dessa aparente interação à distância entre duas partículas emaranhadas, um fenômeno que parecia incompatível com alguns conceitos de sua teoria da relatividade restrita.

Mais tarde, John Bell formalizou o conceito de interação não-local, descrevendo uma forma forte de emaranhamento que causa esse efeito fantasmagórico. Embora o emaranhamento de Bell esteja sendo usado em aplicações práticas, como computação e criptografia quânticas, ele nunca havia sido captado em uma única imagem até hoje.

Os físicos da Universidade de Glasgow, na Escócia, desenvolveram um sistema que dispara um fluxo de fótons emaranhados, a partir de uma fonte quântica de luz, sobre “objetos não convencionais” que são exibidos em materiais de cristal líquido, que alteram a fase dos fótons à medida que eles passam através desses materiais.

A equipe montou uma câmera muito sensível capaz de detectar fótons individuais, que só tiraria fotos quando detectasse tanto um fóton quanto seu “gêmeo” emaranhado, criando um registro visível do emaranhamento dos fótons.

“A imagem que conseguimos captar é uma demonstração elegante de uma propriedade fundamental da natureza, vista pela primeira vez na forma de uma imagem”, explica o autor principal do estudo, Paul-Antoine Moreau, da Faculdade de Física e Astronomia da Universidade de Glasgow. “É um resultado animador, que pode gerar avanços no emergente campo da computação quântica, e levar a novos tipos de imagiologia”.

O artigo, chamado “Imaging Bell-type nonlocal behavior”, foi publicado na Science Advances.

Fonte: Universidade de Glasgow

quarta-feira, 3 de julho de 2019

A criação de plasma de quarks e glúons

Uma ínfima fração de segundo após o Big Bang, o Universo material era constituído por um plasma composto pelas partículas elementares conhecidas como quarks e glúons. É o que propõe o chamado modelo padrão sobre a origem do Universo.
© CERN/LHC (colisão de prótons com núcleos atômicos de chumbo)

Com a rápida expansão e o consequente resfriamento, aquele meio informe e intensamente dinâmico se fragmentou e cada pequeno conjunto de quarks e glúons deu origem a uma partícula composta, o hádron. Assim foram formados, por exemplo, os prótons, cada qual constituído por dois quarks do tipo up e um quark do tipo down (os dois tipos com as menores massas entre todos os quarks), interagindo por meio de glúons.

Essa situação primordial tem sido reproduzida no LHC, o Grande Colisor de Hádrons instalado no CERN, a Organização Europeia para a Pesquisa Nuclear, na fronteira entre a França e a Suíça, e também no RHIC, o Colisor Relativístico de Íons Pesados, instalado no Brookhaven National Laboratory, nos Estados Unidos.

As primeiras detecções do plasma de quarks e glúons foram feitas a partir da colisão de dois núcleos atômicos de elementos pesados, como chumbo e ouro. Agora, a colaboração ALICE, um dos grupos internacionais de pesquisadores que atua no LHC, obteve uma das “assinaturas” características do plasma de quarks e glúons por meio da colisão de prótons com núcleos de chumbo.

Esse resultado, conseguido a partir de precursores muito mais leves, foi alcançado graças ao altíssimo patamar de energia das partículas durante a colisão, de 5,02 TeV (5,02 teraelétrons-volt ou 5,02 x 1012 elétrons-volt).

O físico brasileiro Henrique Zanoli, que participa da colaboração ALICE, estudou essa colisão em seu trabalho de doutoramento.

“O experimento apresentou uma anisotropia azimutal na distribuição das partículas geradas pela colisão. Isso quer dizer que as partículas resultantes da colisão não foram produzidas nas mesmas quantidades em todas as direções. O padrão de distribuição dos elétrons que observamos é característico da assinatura do plasma de quarks e glúons,” disse Zanoli.

Segundo Zanoli, a produção de quarks pesados ocorreu em um momento em que a densidade de energia do sistema ainda estava extremamente alta, e sua evolução é uma interessante ferramenta para estudar a presença do plasma de quarks e glúons.

“Esses quarks pesados, que são produzidos antes do plasma e o atravessam, fornecem informações sobre o plasma, assim como uma emissão de pósitrons, que atravessa o corpo humano, fornece informações sobre esse corpo em uma tomografia. Se as partículas estudadas tivessem sido produzidas no fim do processo, essa analogia não seria válida e não poderíamos afirmar, com base no resultado final, quais são as características do plasma de quarks e glúons formado. Mas, como foram produzidos no início, os quarks pesados se tornam marcadores muito confiáveis,” acrescentou Zanoli.

O plasma de quarks e glúons é tema de muita pesquisa na atualidade. E isso principalmente por dois motivos. Primeiro, porque agora é possível produzir o plasma experimentalmente em colisores, como o LHC e o RHIC. Segundo, e essa é a maior motivação dos experimentos, porque possibilita compreender o Universo primordial e também o que ocorre em objetos astrofísicos, como as estrelas de nêutrons.

A produção do plasma de quarks e glúons em laboratório se tornou possível devido à altíssima densidade de energia alcançada nos grandes colisores da atualidade.

Um patamar de 5 TeV não é tão alto quando se pensa em um objeto macroscópico, constituído por uma quantidade enorme de partículas distribuídas em um grande volume. Mas, quando se divide 5 TeV pelo volume de um próton, o resultado é uma densidade energética a que somente agora a humanidade teve acesso em escala de laboratório.

Fonte: Physical Review Letters

terça-feira, 11 de junho de 2019

Salvando o gato de Schrödinger

O famoso paradoxo gato de Schrödinger foi elaborado como um símbolo da possibilidade de sobreposição de estados e da imprevisibilidade que são característicos do mundo quântico.
© Kat Stockton (gato de Schrödinger)

Uma equipe de pesquisadores diz ter descoberto um modo de capturar e salvar o famoso animal, antecipando seus saltos e agindo na hora exata para salvá-lo da tragédia. No processo, eles poderiam derrubar um dos mais antigos fundamentos da física quântica.

A descoberta, feita por um time de físicos da Universidade de Yale, nos Estados Unidos, permite criar um sistema que avisa antecipadamente da iminência de um salto quântico em átomos artificiais contendo informação quântica.

O gato de Schrödinger é um famoso paradoxo usado para ilustrar o conceito de sobreposição, ou seja, a possibilidade de dois estados opostos existirem simultaneamente, e a imprevisibilidade na física quântica. A ideia é que um gato é colocado em uma caixa selada, com uma fonte radioativa e um veneno que será ativado se ocorrer o decaimento em algum átomo da substância radioativa.

A teoria da sobreposição da física quântica sugere que, até que alguém abra a caixa, o gato está ao mesmo tempo vivo e morto, numa espécie de sobreposição desses estados. O ato de abrir a caixa para observar o gato causaria uma mudança abrupta e aleatória em seu estado quântico, forçando-o a estar vivo ou morto.

Um salto quântico é a mudança aleatória e discreta (não-contínua) no estado que ocorre a partir do ato da observação.

O experimento, realizado no laboratório da Universidade de Yale pelo professor Michel Devoret e proposto pelo autor principal do artigo, Zlatko Minev, permite pela primeira vez espiar o mecanismo do salto quântico. Os resultados revelam uma descoberta surpreendente que contradiz a visão consagrada, estabelecida pelo físico dinamarquês Niels Bohr: a de que os saltos quânticos não são nem abruptos nem tão aleatórios como se pensava anteriormente.

Para um objeto tão pequeno como um elétron, uma molécula, ou um átomo artificial contendo informação quântica, chamada de “qubit”, um salto atômico é a transição repentina de um de seus estados de energia para outro. Nos computadores quânticos, ainda em desenvolvimento, pesquisadores precisam lidar com os saltos dos qubits, que são manifestações de erros de cálculos.
Os enigmáticos saltos quânticos foram teorizados por Bohr há mais de um século, mas não foram observados em átomos até os anos 1980.

“Esses saltos ocorrem todas as vezes que medimos um qubit”, explica Devoret. “Os saltos quânticos são conhecidos por serem imprevisíveis a longo prazo”. Apesar disso, adiciona Minev, “queríamos sabemos se seria possível conseguir um sinal de aviso prévio que um salto está prestes a ocorrer”. Minev conta que o experimento foi inspirado por uma previsão teórica de Howard Carmichael, da Universidade de Auckland, na Nova Zelândia, um pioneiro na trajetória da teoria quântica e um dos co-autores do estudo.

Além de seus impactos fundamentais, os resultados possivelmente trarão um avanço enorme no entendimento e no controle da informação quântica. Pesquisadores dizem que administrar com segurança a informação quântica e corrigir os erros quando eles ocorrem são os desafios principais no desenvolvimento de computadores quânticos totalmente eficientes.

A equipe de Yale usou uma abordagem especial para observar, indiretamente, um átomo artificial supercondutor, recorrendo a três geradores de microondas que irradiavam o átomo que estava aprisionado em uma cavidade tridimensional feita de alumínio.  O método de monitoramento duplamente indireto, que Minev criou para circuitos supercondutores, permite aos pesquisadores observarem o átomo com uma eficácia nunca antes vista.

A radiação em comprimento de micro-ondas agita o átomo artificial, enquanto ele é observado simultaneamente, o que resulta em saltos quânticos. O minúsculo indicativo quântico da ocorrência desses saltos pode ser amplificado sem perda de temperatura para a sala. Isso permite que o sinal seja monitorado em tempo real. Esse arranjo permitiu que os pesquisadores vissem uma repentina ausência de fótons de detecção (fótons emitidos por uma estado auxiliar do átomo quando agitado pelas micro-ondas); essa pequena queda nos fótons é o aviso prévio de que um salto quântico vai ocorrer.

“Esse belo efeito que o experimento revelou é o aumento da coerência durante o salto, apesar da observação”, diz Devoret. Minev adiciona: “Podemos usar isso não apenas para capturar o salto, mas também para revertê-lo.”

Esse é um ponto crucial, segundo os pesquisadores. Enquanto saltos quânticos aparecem pontualmente e aleatoriamente a longo prazo, reverter um salto quântico significa que a evolução do estado quântico possui, pelo menos em parte, um caráter determinista e não aleatório; o salto sempre ocorre da mesma maneira previsível a partir de seu início aleatório.

“Os saltos quânticos de um átomo são, de certa forma, análogos à erupção de um vulcão”, explica Minev. “Eles são completamente imprevisíveis a longo termo. Porém, com o monitoramento correto, podemos detectar o aviso prévio de um desastre iminente e agir sobre ele antes que ocorra.”

O estudo em questão foi publicado na revista Nature.

Fonte: Yale University

domingo, 2 de junho de 2019

Observação da radiação Hawking

Físicos do Instituto de Tecnologia de Israel (Technion) confirmaram as previsões de uma teoria de Stephen Hawking sobre buracos negros, utilizando um análogo construído em laboratório.


© Revista Física (ilustração de um buraco negro)

Ao tentar aplicar as leis físicas que regem o calor nos buracos negros, o físico Stephen Hawking percebeu que estes objetos devem emitir radiação de suas superfícies, chamada Radiação Hawking. O mecanismo concatena a mecânica quântica com a gravidade.

Stephen Hawking apresentou sua teoria em 1974, depois de analisar o trabalho de outro físico, Jacob Bekenstein, da Universidade de Princeton. Para Bekenstein, a entropia de um buraco negro, ou seja, o caos de um sistema relativo ao seu volume, pressão, temperatura e energia, era proporcional à área de seu horizonte de eventos, ponto-limite do qual não é mais possível escapar desta região do espaço.

A entropia de um buraco negro é dada pela equação de Bekenstein-Hawking: S=k.A/4.lP2 , onde A é a área, k é a constante de Boltzmann e lP é o comprimento de Planck que é expreso por lP=G.h/2π.c3)1/2  , sendo h a constante de Planck, G a constante gravitacional e c a velocidade da luz.

Infelizmente, ainda não é posível se aproximar o suficiente de um buraco negro para provar ou refutar a teoria. Assim, os físicos testaram um buraco negro análogo de laboratório.

Os pesquisadores construíram tal análogo de buraco negro usando um material quântico chamado de condensado de Bose-Einstein. Neste condensado de Bose-Einstein, o horizonte de eventos do buraco negro artificial representa o ponto sem retorno para o som, ao invés da luz.

Os cientistas criaram um condensado de Bose-Einstein capturando 8.000 átomos de rubídio em um feixe de laser. Os condensados ​​de Bose-Einstein são sistemas de átomos ultrafrios, onde estranhos fenômenos quânticos se tornam visíveis em escalas maiores.

Os pesquisadores em seguida utilizaram um segundo laser para aumentar a energia potencial de apenas um lado do condensado de Bose-Einstein, tornando-o mais denso naquele lado. Uma transição brusca (como um horizonte de eventos) separa a área mais densa (fora do buraco negro) da área menos densa (dentro do buraco negro).

Do ponto de vista dos cientistas, ao olhar para o experimento, parece que todos os átomos de rubídio estão se movendo. Fora do buraco negro, na região mais densa, a velocidade do som é mais rápida do que a velocidade deste fluxo, de modo que as ondas sonoras podem se mover em qualquer direção. Na região menos densa, dentro do buraco negro, a velocidade do som é mais lenta, então as ondas sonoras apenas se afastam da transição brusca e penetram no buraco negro.

Esta experiência imita uma das características mais importantes de um buraco negro: fora do objeto, a luz pode se afastar dele ou entrar nele. Mas, uma vez dentro, não pode escapar. O análogo de laboratório substitui a luz pelo som, e os pesquisadores podem medir as ondas sonoras dentro e fora de seu “horizonte de eventos”. O sinal da radiação Hawking é uma correlação entre estes dois tipos de ondas.

Isto foi suficiente para extrair informações importantes sobre a radiação, ou seja, que ela tem um espectro térmico com uma temperatura determinada pelo que seria o análogo da gravidade neste sistema artificial.

Isto significa que o buraco negro artificial emitiu um espectro contínuo de comprimentos de onda, em vez de comprimentos de onda preferidos. Estas observações e as temperaturas estavam de acordo com o que foi previsto na teoria de Hawking.

Segundo o principal autor do estudo, o físico Jeff Steinhauer, isso mostra que “os cálculos de Hawking estavam corretos”. Contudo, provavelmente são um efeito real que acontece nestes tipos de sistemas.

Esta pesquisa é mais um exemplo da utilização de análogos para estudarmos fenômenos físicos impossíveis de serem observados. Eles servem como uma verificação importante das teorias que orientam nossa compreensão de coisas inacessíveis.

Agora, os pesquisadores esperam refazer repetidamente o experimento, a fim de determinar como a radiação Hawking muda com o tempo.

Quem sabe um dia possamos medir essas propriedades em buracos negros reais.

Fonte: Nature

sábado, 23 de março de 2019

Será que ondas sonoras transportam massa?


É perdoável pensar que nossa compreensão da física clássica já tenha atingido seu máximo ao longo dos quatro séculos desde que Isaac Newton inventou suas leis de movimento. Mas novas pesquisas surpreendentes mostram que ainda há segredos esperando para serem encontrados, escondidos à vista de todos; ou, pelo menos neste caso, ao alcance da voz.
© Shustterstock (ilustração de ondas sonoras)

Um grupo de cientistas teorizou que as ondas sonoras possuem massa, o que significa que os sons seriam diretamente afetados pela gravidade. Eles sugerem que os fônons, excitações coletivas parecidas com partículas, responsáveis pelo transporte de ondas sonoras através de um meio, podem exibir uma pequena quantidade de massa em um campo gravitacional. "Seria de se esperar que resultados de física clássica como esse já fossem conhecidos há muito tempo," diz Angelo Esposito, da Universidade de Columbia, principal autor do estudo.

Esposito e seus colegas se basearam em um artigo anterior, publicado no ano passado, no qual Alberto Nicolis, da Columbia, e Riccardo Penco, da Universidade Carnegie Mellon, sugeriram pela primeira vez que os fônons poderiam ter massa em um superfluido. O estudo mais recente, no entanto, mostra que este efeito também deve ser válido em outros materiais, incluindo líquidos e sólidos regulares, e até mesmo no próprio ar.

E, embora se espere que a quantidade de massa transportada pelos fônons seja pequena, comparável a um átomo de hidrogênio, cerca de 10-24gramas, ela pode, na verdade, ser mensurável. Exceto que, se você fosse medí-la, encontraria algo profundamente estranho: a massa dos fônons seria negativa, significando que eles cairiam "para cima". Com o tempo, sua trajetória gradualmente se afastaria de uma fonte gravitacional como a Terra. "Se tivessem massa gravitacional positiva, eles cairiam para baixo," diz Penco.

E a extensão da "queda" é igualmente pequena, com a variação dependendo do meio pelo qual o fônon está passando. Na água, onde o som se move a 1,5 quilômetros por segundo, a massa negativa do fônon faz com que se desloque a cerca de 1 grau por segundo. Mas isso corresponde a uma mudança de 1 grau ao longo de 15 quilômetros, o que seria extremamente difícil de medir.

Ainda que possa ser difícil, tal medida ainda deve ser possível. Esposito observa que, para distinguir a massa dos fônons, é possível procurá-los em um meio onde a velocidade do som seja muito lenta. Isso pode ser possível no hélio superfluido, onde a velocidade do som pode cair para centenas de metros por segundo ou menos, e a passagem de um único fônon pode mudar o equivalente a um átomo de material.

Alternativamente, em vez de buscar efeitos minúsculos ampliados em substâncias exóticas, os pesquisadores podem procurar por sinais mais óbvios de fônons portadores de massa estudando de perto ondas sonoras extremamente intensas. Os terremotos oferecem uma possibilidade, diz Esposito. De acordo com seus cálculos, um tremor de magnitude 9 liberaria energia suficiente para que a mudança resultante na aceleração gravitacional da onda sonora do terremoto pudesse ser mensurável usando relógios atômicos. (Embora as técnicas atuais não sejam suficientemente sensíveis para detectar o campo gravitacional de uma onda sísmica, futuros avanços na tecnologia podem tornar isso possível.)

É improvável que as ondas sonoras que têm massa tenham um grande impacto na vida cotidiana, mas a possibilidade que algo tão fundamental tenha passado despercebida por tanto tempo é intrigante.

Um artigo foi publicado no periódico Physical Review Letters.

Fonte: Scientific American

Levitação de objetos macroscópicos com luz


Pesquisadores da Caltech (Instituto de Tecnologia da Califórnia) estão desenvolvendo uma maneira de fazer levitar e impulsionar objetos usando apenas a luz, através da criação de determinados padrões, em nanoescala, na superfície dos objetos.


© H. Atwater (ilustração de objeto nano-modelado reorientado)

Embora ainda esteja na etapa teórica, o trabalho é um passo em direção ao desenvolvimento de uma espaçonave que poderia alcançar o planeta mais próximo fora do nosso Sistema Solar em 20 anos, alimentada e acelerada apenas pela luz.

A pesquisa foi feita no laboratório de Harry Atwater, Howard Hughes Professor de Física Aplicada e Ciência de Materiais na Divisão de Engenharia e Ciências Aplicadas da Caltech.

Décadas atrás, o desenvolvimento das chamadas “pinças ópticas” permitiu que os cientistas movessem e manipulassem objetos minúsculos, como nanopartículas, usando a pressão radiativa de um feixe de luz do laser nitidamente focado. Este trabalho formou a base para o Prêmio Nobel de Física de 2018. No entanto, as pinças só são capazes de manipular objetos muito pequenos e apenas a distâncias muito curtas.

Ognjen Ilic, pós-doutorando e autor do estudo, oferece uma analogia: "Pode-se levitar uma bola de pingue-pongue usando um fluxo constante de ar de um secador de cabelo. Mas não funcionaria se a bola de pingue-pongue fosse muito grande ou se estivesse muito longe do secador de cabelo, e assim por diante".

Com essa nova pesquisa, objetos de diversas formas e tamanhos, de micrômetros a metros, poderiam ser manipulados com um feixe de luz. A chave é criar padrões específicos em nanoescala na superfície de um objeto. Esse padrão interage com a luz de tal forma que o objeto pode se endireitar quando perturbado, criando um torque de restauração para mantê-lo no feixe de luz. Assim, em vez de exigir raios laser altamente focalizados, o padrão dos objetos é projetado para "codificar" sua própria estabilidade. A fonte de luz também pode estar a milhões de quilômetros de distância.

"Nós criamos um método que pode levitar objetos macroscópicos", diz Atwater, que também é diretor do Centro Conjunto de Fotossíntese Artificial. "Há uma aplicação audaciosa e interessante para usar essa técnica como meio de propulsão de uma nova geração de naves espaciais. Estamos longe de realmente fazer isso, mas estamos no processo de testar os princípios."

Em teoria, essa espaçonave poderia ser modelada com estruturas em nanoescala e acelerada por uma luz laser baseada na Terra. Sem precisar carregar combustível, a espaçonave pode alcançar velocidades muito altas, até relativísticas, e possivelmente viajar para outras estrelas.

Atwater também prevê que a tecnologia poderia ser usada aqui na Terra para permitir a rápida fabricação de objetos cada vez menores, como placas de circuito.

Um artigo descrevendo a pesquisa aparece na edição on-line da revista Nature Photonics.

Fonte: Caltech

terça-feira, 2 de outubro de 2018

Ferramentas feitas de luz

A Academia Real de Ciências da Suécia decidiu atribuir o Prêmio Nobel de Física de 2018 devido às invenções inovadoras no campo da física a laser.

ilustração do pulso de laser

© Johan Jarnestad (ilustração do pulso de laser)

Os laureados foram Arthur Ashkin, de 96 anos, do Bell Laboratories (EUA), pelas pinças ópticas que possibilitam a manipulação de pequenas partículas e sua aplicação aos sistemas biológicos; Gérard Mourou, de 74 anos, da École Polytechnique (França) e Universidade de Michigan (EUA), em conjunto com Donna Strickland, de 59 anos, da Universidade de Waterloo (Canadá), pelo método de geração de pulsos ópticos ultracurtos de alta intensidade. Os físicos Strickland e Mourou desenvolveram seu trabalho juntos na Universidade de Rochester, em Nova York, nos anos 80.

Os três compartilharão o prêmio de 9 milhões de coroas suecas, equivalente a 4 milhões de reais, sendo metade atribuída à Ashkin.

Em toda a história do Prêmio Nobel, criado em 1901, apenas duas mulheres tinham recebido o prêmio de Física: Marie Curie, em 1903, e Maria Goeppert-Mayer, em 1963.

Estas invenções revolucionaram a física a laser, onde objetos extremamente pequenos e processos incrivelmente rápidos estão agora sendo vistos sob uma nova luz. Instrumentos avançados de precisão estão abrindo áreas de pesquisa inexploradas e uma infinidade de aplicações industriais e médicas.

Usando uma abordagem engenhosa, eles conseguiram criar pulsos de laser de alta intensidade ultracurtos sem destruir o material. Primeiro eles esticaram os pulsos de laser a tempo de reduzir seu pico de potência, depois os amplicaram e finalmente os comprimiram. Se um pulso é comprimido no tempo e se torna mais curto, então mais luz é reunida no mesmo espaço minúsculo, a intensidade do pulso aumenta dramaticamente.

A técnica inventada por Strickland e Mourou, chamada de Chirped Pulse Amplification (CPA), logo se tornou padrão para os lasers subsequentes de alta intensidade. Seus usos incluem os milhões de cirurgias oculares corretivas que são realizadas todos os anos usando os raios laser mais nítidos.

Arthur Ashkin teve um sonho: imagine se raios de luz pudessem ser postos em ação e mover objetos. Na série Star Trek que começou em meados dos anos 1960, um raio trator pode ser usado para recuperar objetos, até mesmo asteroides no espaço, sem tocá-los. Claro, isso soa como pura ficção científica.

Podemos sentir que os raios do Sol carregam energia, embora a pressão do feixe é pequeno demais para que possamos sentir um pequeno cutucão. Mas sua força poderia ser suficiente para empurrar minúsculas partículas e átomos?

Imediatamente após a invenção do primeiro laser em 1960, Ashkin começou a experimentar com o novo instrumento na Bell Laboratories. Em um laser, as ondas de luz se movem de forma coerente, diferentemente luz branca comum em que os feixes são misturados em todas as cores do arco-íris e espalhados em todas as direções.

Ashkin percebeu que um laser seria a ferramenta perfeita para fazer com que os feixes de luz pudessem mover pequenas. Ele iluminou esferas transparentes de tamanho micrométrico e, imediatamente fez as esferas se moverem. Ao mesmo tempo, Ashkin ficou surpreso com a forma como as esferas foram deslocadas em direção ao meio do feixe, onde era mais intenso. A explicação é que num feixe de laser a sua intensidade diminui do centro para os lados. Portanto, a pressão da radiação que a luz do laser exerce sobre as partículas também varia, impulsionando-as em direção ao meio d o feixe, que mantém as partículas no centro.

Para também segurar as partículas na direção do feixe, Ashkin adicionou uma lente forte para focar a luz do laser. As partículas foram então atraídas para o ponto que tinha a maior intensidade de luz. Assim, nasceu uma armadilha, que veio a ser conhecida como pinças ópticas.

As inúmeras áreas de aplicação ainda não foram completamente exploradas, tais como: dispositivos eletrônicos mais rápidos, células solares mais eficazes, melhores catalisadores, aceleradores mais potentes, novas fontes de energia, ou manipulações farmacêuticas.

No entanto, mesmo agora essas célebres invenções nos permitem remexer no micromundo no melhor espírito de Alfred Nobel, para o maior benefício para a humanidade.

Fonte: The Royal Swedish Academy of Sciences

segunda-feira, 30 de julho de 2018

A ligação do bóson de Higgs com o quark top

O tão esperado acoplamento do bóson de Higgs com o quark top foi, finalmente, obtido no Large Hadron Collider (LHC), o grande colisor de hádrons, situado na fronteira franco-suíça.

ilustração do campo Brout-Englert-Higgs

© CERN/D. Dominguez (ilustração do campo Brout-Englert-Higgs)

O evento foi detectado de forma independente pelas duas principais equipes internacionais que atuam no LHC: a CMS e a Atlas.

O resultado é uma robusta confirmação da acurácia do chamado Modelo Padrão da Física de Partículas, construído coletivamente desde o início dos anos 1960.

“Como o bóson de Higgs participa do processo que produz as massas de todas as partículas, esperava-se que ele interagisse com as partículas proporcionalmente às suas massas. Isto é, que quanto mais pesada a partícula, maior fosse sua interação com o bóson. Trata-se de uma característica muito específica, que, segundo o Modelo Padrão, apenas o bóson de Higgs possui. Então, investigar se isso realmente ocorre experimentalmente é uma maneira muito forte de corroborar o modelo”, disse Sérgio Novaes, professor titular da Universidade Estadual Paulista (Unesp) e integrante da colaboração internacional CMS.

“Com as partículas leves, o acoplamento é pequeno e difícil de medir. Havia, portanto, uma grande expectativa em relação ao acoplamento do bóson de Higgs com o quark top, que é uma partícula muito pesada, mais pesada inclusive do que o próprio Higgs, com massa superior a 172 GeV/c2. Finalmente, conseguimos detectar e medir essa interação. E chegamos à conclusão de que, efetivamente, ocorre aquilo que havia sido predito pelo Modelo Padrão. O Higgs acopla-se proporcionalmente à massa do top. Foi uma grande confirmação do modelo”, disse Novaes.

A interação do bóson de Higgs com o quark top só foi possível devido ao aumento de energia do LHC. No evento em questão, a colisão de dois prótons gera um par quark-antiquark top (cada componente com mais de 172 GeV/c2) e um bóson de Higgs (com cerca de 125 GeV/c2). Isso corresponde quase à massa de 500 prótons. Então, no patamar atual de energia do colisor, de 13 TeV (13 trilhões de elétrons-volt), o choque de dois prótons produz massa equivalente a 500 prótons, e o restante da energia inicial manifesta-se sob a forma da energia das partículas produzidas. Aqui, vale lembrar que a energia se converte em massa, segundo a famosa equação de Einstein, E = m.c2, na qual E é a energia; m, a massa; e c, a velocidade da luz no vácuo.

Além disso, quanto maior a energia do colisor, maior a definição entre dois pontos observados. Com a energia atual do LHC, é possível diferenciar pontos situados a apenas 10-18 m. Para efeito de comparação, essa distância é um bilhão de vezes menor do que aquela na qual opera a nanotecnologia [10-9 m].

O bóson de Higgs – assim chamado em homenagem ao seu propositor, o físico britânico Peter Higgs, nascido em 1929 e Prêmio Nobel de Física de 2013 – foi incorporado ao Modelo Padrão na década de 1960, para resolver um problema teórico abstrato: que o modelo contivesse um ingrediente capaz de conferir massa às partículas que precisavam ter massa e, ao mesmo tempo, que permanecesse “renormalizável”, isto é, capaz de fazer predições.

Isso foi um dilema até que o físico norte-americano Steven Weinberg – ganhador do Prêmio Nobel de Física de 1979, junto com o paquistanês Abdus Salam e o norte-americano Sheldon Glashow – tivesse a ideia de agregar ao modelo o chamado “mecanismo de Higgs”.

“Não havia nenhuma evidência experimental da existência do bóson de Higgs. Sua proposição foi mais uma aventura teórica do que qualquer hipótese experimentalmente verificável. Tanto é que foram necessários 45 anos até a partícula ser finalmente detectada e anunciada, em 4 de julho de 2012”, disse Novaes.

A dificuldade da obtenção experimental é fácil de entender. Com massa de aproximadamente 125 GeV/c2, mais de 133 vezes a massa do próton, o bóson de Higgs é, depois do quark top, a segunda partícula mais massiva do Modelo Padrão. Sua produção, por uma ínfima fração de segundo, só é possível em contextos de altíssima energia, como aqueles que teriam existido logo depois do Big Bang ou os agora alcançados no LHC.

“Não houve, durante esses 45 anos, nenhuma hipótese alternativa que, ao mesmo tempo, conferisse massa às partículas e explicasse a interação entre elas. Trabalhei com isso desde o meu mestrado. Para mim, é um prazer enorme ter participado da detecção do bóson de Higgs em 2012. E ver, agora, mais uma confirmação dessa proposta teórica”, disse Novaes, atualmente no LHC, em Genebra, Suíça.

A afirmação de que o bóson de Higgs confere massa às partículas dá margem, às vezes, a uma interpretação equivocada. O motivo é que se imagina uma partícula entregando massa a outra pontualmente, mas não é disso que se trata.

A melhor ferramenta disponível para descrever esse nível da natureza é a teoria de campos. Nos marcos da mecânica quântica, as partículas não são corpúsculos diminutos, tais como concebidas na Física Clássica. Partículas são excitações do campo. Toda partícula é, na realidade, o quantum de um determinado campo. O fóton é o quantum do campo eletromagnético. O elétron é o quantum do campo do elétron. O bóson de Higgs é o quantum do campo de Higgs. E assim por diante. Segundo o Modelo Padrão, é o campo de Higgs que confere massa às partículas. Ao se manifestarem no espaço, as partículas interagem com ele. E, quanto maior a interação, maior a massa.

Assim, por exemplo, embora sejam idênticos quanto à carga (2/3) e ao spin (1/2), os quarks up e top apresentam enorme diferença de massa. A massa do top é quase 80 mil vezes maior. E isso é proporcional ao seu acoplamento ao campo de Higgs.

“O fato de a constante de acoplamento do bóson de Higgs ser proporcional à massa das partículas com as quais ele se acopla é uma predição universal do Modelo Padrão. Essa predição já havia sido corroborada no caso de partículas mais leves. Agora, o acoplamento com o quark top vem reforçar, ainda mais, a efetividade do modelo na descrição das partículas elementares e de suas interações”, disse Novaes.

A detecção do acoplamento do bóson de Higgs com o quark top decorreu da superação de enormes dificuldades experimentais. Uma dificuldade é que as três partículas resultantes da colisão (o quark top, o antiquark top e o bóson de Higgs) decaem, muito rapidamente, em outros objetos. O quark top decai no bóson W e no quark bottom. O W, por sua vez, decai em outras partículas.

Ora, o quark bottom é um objeto produzido copiosamente em colisões de prótons. Então, um grande desafio é distinguir o quark bottom originado pelo quark top de um pano de fundo extremamente abundante em quarks bottom. Além disso, o bóson de Higgs também decai em vários objetos. Tudo isso em um contexto no qual há cerca de 40 interações ocorrendo ao mesmo tempo.

“O estado final detectado é muito complexo e exige uma engenharia de big data fantástica, para que o sinal de interesse possa ser extraído desse background superabundante. É aquela história de achar umas poucas agulhas no palheiro”, disse Novaes.

E o “palheiro” é realmente colossal. Pois, a cada 25 bilionésimos de segundo, dois feixes, cada qual com 100 bilhões de prótons, colidem durante a atividade do LHC, gerando a maior quantidade de dados já produzida na face da Terra.

A descoberta foi descrita no periódico Physical Review Letters.

Fonte: CERN & Agência FAPESP

terça-feira, 17 de julho de 2018

Uma fonte de raios cósmicos fora da Via Láctea

Parece ter chegado ao fim o mistério da origem dos raios cósmicos de altíssima energia, as partículas mais energéticas do Universo, que chegam à Terra vindos de fora de nossa galáxia, a Via Láctea.

ilustração de um blazar emitindo neutrinos

© DESY (ilustração de um blazar emitindo neutrinos)

Uma equipe internacional de cientistas encontrou a primeira evidência de uma fonte de neutrinos de alta energia: uma galáxia ativa, ou blazar.

É a primeira vez que se identifica com tanta precisão a possível origem destas partículas, que, como se confirmou recentemente, são geradas fora da Via Láctea. A observação foi feita no dia 22 de setembro de 2017 no Observatório de Neutrinos IceCube, uma rede de 5.160 detectores instalados sob um bilhão de toneladas de gelo, construída próxima ao polo Sul, na Antártida.

As informações obtidas até agora corroboram a hipótese de que os buracos negros funcionariam como potentes aceleradores cósmicos de partículas, que atingiriam energias de milhões a bilhões de vezes superiores às produzidas nos maiores equipamentos já construídos pela ciência.

Descobertos em 1912 pelo físico austríaco Victor Hess, os raios cósmicos são partículas eletricamente carregadas vindas do espaço com velocidades próximas à da luz. Apesar de serem algumas das partículas mais abundantes no Universo, 100 trilhões passam através dos nossos corpos a cada segundo, estas partículas subatõmicas, eletricamente neutras, são notoriamente difíceis de serem detectadas porque raramente interagem com a matéria.

Enquanto os neutrinos primordiais foram criados durante o Big Bang, muitas destas partículas ilusórias são rotineiramente produzidas em reações nucleares através do cosmos. A maioria dos neutrinos que chegam à Terra derivam do Sol, mas acredita-se que aqueles que nos atingem com as energias mais altas provêm das mesmas fontes que os raios cósmicos, partículas altamente energéticas originárias de fontes exóticas fora do Sistema Solar.

Os raios cósmicos de mais baixa energia são criados e acelerados em explosões estelares na Via Láctea. Já os mais energéticos, com energias superiores a 1 EeV (1 exaelétrons-volts, ou 1018 elétrons-volts), devem ser prótons ou núcleos atômicos vindos de lugares muito distantes, fora de nossa galáxia. O principal desafio de determinar sua origem é que, por serem partículas eletricamente carregadas, não viajam em linha reta: sua trajetória é desviada ao atravessarem campos magnéticos dentro e fora das galáxias.

Uma maneira de contornar este problema é observar neutrinos de alta energia. Os neutrinos têm uma massa ínfima, carga elétrica nula e, portanto, quase não interagem com a matéria. Estas características permitem que viajem pelo espaço em linha reta e a velocidades próximas à da luz, atravessando quase tudo o que encontram pelo caminho sem serem perturbados, razão por que são chamados de partículas fantasmas.

Os astrofísicos estimam que alguns dos neutrinos de alta energia observados na Terra também venham de fora da galáxia e sejam produzidos pelos mesmos fenômenos que geram os raios cósmicos. Assim, traçar a origem destes neutrinos extragalácticos levaria também à origem dos raios cósmicos ultraenergéticos.

Em setembro de 2017, os detectores do IceCube registraram um sinal indicando a passagem de um único neutrino com energia de 290 TeV (teraelétrons-volts), 40 vezes a dos prótons acelerados no Large Hadron Collider (LHC), o maior acelerador de partículas do mundo, instalado na fronteira da Suíça com a França. Ao refazer o percurso do neutrino nos detectores do IceCube, os pesquisadores verificaram que sua origem seria um ponto do céu na constelação de Órion.

O telescópio espacial de raios gama Fermi da NASA e os telescópios MAGIC (Major Atmospheric Gamma Imaging Cherenkov) em La Palma, nas Ilhas Canárias, observaram esta parte do céu e encontraram o blazar conhecido, TXS 0506+056, num estado de intensa emissão de alta energia ao mesmo tempo que o neutrino foi detectado no Polo Sul.

Os blazares são os núcleos centrais de galáxias gigantes que abrigam um buraco negro supermassivo no núcleo, onde a matéria espiralada forma um disco giratório quente que gera enormes quantidades de energia, junto com um par de jatos relativísticos.

O TXS 0506+056 é uma galáxia com núcleo ativo. Isso significa que ela abriga em seu centro um buraco negro com massa muito elevada que, ao consumir a matéria ao redor, expulsa jatos de radiação luminosa que brilha mais do que todas as estrelas da galáxia.

Após os alertas do IceCube e do Fermi, 17 observatórios ao redor do mundo acompanharam as variações de brilho do TXS 0506+056. O objeto emite radiação em todas as faixas de energia do espectro eletromagnético, das mais baixas (ondas de rádio) até as mais altas (raios X e gama).

As observações sugerem que o brilho detectado seja a radiação gerada por um jato de matéria ejetada por campos magnéticos ao redor de um buraco negro de massa muito elevada (equivalente à de bilhões de sóis) no centro de uma galáxia a 4 bilhões de anos-luz de distância da Terra.

No caso do TXS 0506+056, seu jato está apontado diretamente para a Terra. Este aspecto permite que tanto a radiação eletromagnética, quanto os neutrinos produzidos ao longo do jato cheguem ao planeta depois de viajar durante 4 bilhões de anos em linha reta.

Duas coincidências permitiram aos pesquisadores conectar a origem do neutrino ao blazar: a detecção da partícula ocorreu simultaneamente ao aumento de brilho do TXS 0506+056 e tanto o neutrino quanto a radiação vieram da mesma região do espaço.

Seria essa coincidência mero fruto do acaso? Para diminuir o risco de estarem se iludindo, os pesquisadores analisaram dados coletados durante 10 anos pelo IceCube em busca de mais detecções de neutrinos de alta energia vindos da região do blazar TXS 0506+056. De setembro de 2014 a março de 2015, uma dúzia de neutrinos, possivelmente oriundos daquele mesmo ponto no céu, atravessaram os detectores ocultos no gelo da Antártida, mas deixaram um traço mais difuso.

Em 2017, a combinação de duas técnicas permitiu identificar a região do espaço em que ocorreu o choque explosivo de duas estrelas de nêutrons e estudar em detalhes as consequências desse tipo de colisão, fonte de elementos químicos pesados do Universo, como o ouro.

Esta observação fortalece muito a detecção inicial de um único neutrino de alta energia e aumenta o volume de dados que indicam que o blazar é a primeira fonte conhecida de neutrinos de alta energia e raios cósmicos de alta energia.

Fonte: Science

domingo, 6 de maio de 2018

Emaranhamento quântico num fio de cabelo

Talvez a predição mais estranha da teoria quântica seja o emaranhamento, um fenômeno no qual dois objetos distantes se entrelaçam de um modo que desafia a física clássica.

ilustração das peles vibratórias

© Petja Hyttinen/Olli Hanhirova (ilustração das peles vibratórias)

A imagem acima mostra peles vibratórias de 15 micrômetros de largura preparadas em chips de silício usados no experimento. As peles vibraram com uma alta frequência de ultrassom, e o estado quântico peculiar previsto por Einstein foi criado a partir das vibrações.

Em 1935, Albert Einstein expressou sua preocupação com esse conceito, se referindo a ele como uma "ação fantasmagórica à distância".

Atualmente, o emaranhamento é considerado o pilar da mecânica quântica, e é um recurso fundamental para uma série de tecnologias quânticas potencialmente transformadoras. O emaranhamento é extremamente frágil, e foi previamente observado apenas em sistemas microscópicos como a luz ou átomos, e, recentemente, em circuitos elétricos supercondutores.

Uma equipe liderada por Mika Sillanpää, da Universidade de Aalto, na Finlândia, mostrou que o emaranhamento de objetos maiores pode ser gerado e detectado.

Os pesquisadores conseguiram colocar os movimentos de duas peles vibratórias (com um princípio semelhante ao das peles dos instrumentos de percurssão) feitas de alumínio metálico e chip de silicone em um estado quântico de emaranhamento. Em comparação à escala atômica, os objetos envolvidos no experimento são verdadeiramente grandes e macroscópicos: de formato circular, as peles vibratórias têm um diâmetro semelhante à largura de um cabelo humano fino.

A equipe também incluiu cientistas da Universidade de Nova Gales do Sul (UNSW) em Canberra, na Austrália, Universidade de Chicago e a Universidade de Jyväskylä, na Finlândia. A abordagem utilizada no experimento foi baseada em uma inovação teórica desenvolvida por Matt Woolley, da UNSW, e Aashish Clerk, da Universidade de Chicago.

Os corpos vibrantes são projetados para interagir através de um circuito de microondas supercondutor. Os campos eletromagnéticos do circuito são usados para absorver todas as perturbações térmicas e isolar apenas as vibrações mecânico-quânticas.

Eliminar todas as formas de ruído é algo crucial para os experimentos, por isso eles foram conduzidos em temperaturas muito baixas, próximas ao zero absoluto (-2730C). De forma admirável, o experimento permitiu que o incomum estado de emaranhamento persistisse por longos períodos de tempo. Nesse caso, por mais de meia hora.

No futuro, os pesquisadores irão tentar teleportar as vibrações mecânicas. Em teletransporte quântico, propriedades de corpos físicos podem ser transmitidas através de distâncias arbitrárias usando a "ação fantasmagórica à distância.

Os resultados demonstram que agora é possível ter controle sobre objetos mecânicos maiores, nos quais estados quânticos exóticos possam ser gerados e estabilizados. Essa descoberta não apenas abre as portas para novos tipos de tecnologias quânticas e sensores, mas também pode permitir estudos de física fundamental, por exemplo, a elucidação da interação entre gravidade e mecânica quântica.

Fonte: Nature

domingo, 4 de março de 2018

Medição de alta precisão da massa do bóson W

A ATLAS Collaboration reporta a primeira medida de alta precisão no Large Hadron Collider (LHC) da massa do bóson W.

medição da massa do bóson W

© CERN/ATLAS (medição da massa do bóson W)

A imagem acima mostra um evento candidato de colisões próton-próton no experimento ATLAS: decaimento de um Bosão W para 1 múon (um elétron mais pesado e hiper-relativista) e 1 neutrino originados dos feixes estáveis a 7 TeV. O múon (linha vermelha) tem um momento transverso de 32,8 GeV e a energia transversal em falta é de 52,4 GeV (linha a azul) resultando numa massa transversal de 82,9 GeV no sistema di-leptônico. Foi detectada pouca atividade hadrônica, o que é indicação de pequeno momento transversal do candidato W. O evento foi registado em Junho de 2011 e foi usado para a medição da massa do bóson W.

Esta é uma das duas partículas elementares que medeiam a interação fraca, uma das forças que governam o comportamento da matéria em nosso universo. O resultado relatado fornece um valor de 80.370 ± 19 MeV (com uma precisão instrumental de 0.02%) para a massa do bóson W, o que é consistente com a expectativa do Modelo Padrão de Física de Partículas, a teoria que descreve as partículas conhecidas e suas interações. Note-se que existem três bósons que medeiam a força nuclear fraca, sendo que o bóson W é na realidade dois: o +W e o -W, que se diferenciam apenas pela carga elétrica, e o terceiro é o bóson Z. Um exemplo da força nuclear fraca é a fusão do hidrogênio para um dos seus isótopos estáveis, o deutério.

A medição é baseada em cerca de 14 milhões de bósons W registrados em um único ano (2011), quando o LHC estava funcionando na energia de 7 TeV. Ele corresponde às medidas anteriores obtidas no LEP, o antepassado do LHC no CERN (European Organization for Nuclear Research) e no Tevatron, um antigo acelerador do Fermilab nos Estados Unidos, cujos dados possibilitaram refinar continuamente esta medida nos últimos 20 anos.

O bóson W é uma das partículas mais conhecidas do Universo. A sua descoberta em 1983 coroou o sucesso do síncrotron próton-antipróton do CERN, que conduziu ao Prêmio Nobel de Física em 1984. Embora as propriedades do bóson W tenham sido estudadas há mais de 30 anos, medir sua massa em alta precisão continua sendo um grande desafio.

O Modelo Padrão é muito poderoso para prever o comportamento e determinadas características das partículas elementares e permite deduzir certos parâmetros de outras quantidades bem conhecidas. As massas dos bósons W, o quark top e o bóson de Higgs, por exemplo, estão ligados por relações de física quântica. Portanto, é muito importante melhorar a precisão das medidas de massa do bóson W para entender melhor o bóson de Higgs, refinar o Modelo Padrão e testar sua consistência geral.

Notavelmente, a massa do bóson W pode ser prevista hoje com uma precisão superior à das medidas diretas. É por isso que é um ingrediente fundamental na busca de física nova, pois qualquer desvio da massa medida da predição pode revelar novos fenômenos conflitantes com o Modelo Padrão.

A medição depende de uma calibração completa do detector e da modelagem teórica da produção de bosons W. Estes foram alcançados através do estudo dos eventos do bóson Z e várias outras medidas auxiliares. A complexidade da análise significou que levou quase cinco anos para a equipe da ATLAS alcançar este novo resultado. Uma análise mais aprofundada com a enorme amostra de dados agora disponíveis do LHC permitirá uma maior precisão num futuro próximo.

Um artigo foi publicado no periódico European Physical Journal C.

Fonte: European Organization for Nuclear Research

terça-feira, 3 de outubro de 2017

Prêmio Nobel de Física: ondas gravitacionais

O Prêmio Nobel da Física de 2017 foi concedido hoje ao alemão Rainer Weiss e aos americanos Barry C. Barish e Kip S. Thorne pela criação, nos anos 1990, do Laser Interferometer Gravitational-Wave Observatory (LIGO), nos Estados Unidos, que permitiu a detecção de ondas gravitacionais pela primeira vez na História.

detectando ondas gravitacionais

© Johan Jarnestad (detectando ondas gravitacionais)

Rainer Weiss nasceu em Berlim, na Alemanha, em 1932, ele é pesquisador do Instituto de Tecnologia de Massachusetts (MIT), em Cambridge, nos Estados Unidos. Barry C. Barish nasceu em 1936, em Omaha, no estado americano de Nebraska, e atua no Instituto de Tecnologia da Califórnia (Caltech), em Pasadena. Kip S. Thorne nasceu em 1940, em Logan, no Utah, e também atua no Caltech.

Os cientistas laureados forneceram decisivas contribuições ao detector LIGO e à observação de ondas gravitacionais. As ondas gravitacionais foram previstas por Albert Einstein em sua Teoria Geral da Relatividade, publicada há cem anos, mas extremamente sutis, elas pareciam impossíveis de serem detectadas.

A observação das ondas gravitacionais no Universo só aconteceu no dia 14 de setembro de 2015, no LIGO. Naquela data, os cientistas finalmente detectaram as tênues vibrações emitidas por dois buracos negros que giram um ao redor do outro, a 1,3 bilhão de anos-luz da Terra. A descoberta foi divulgada no dia 11 de fevereiro de 2016. O sinal foi extremamente fraco quando chegou à Terra, mas já prometeu uma revolução na astrofísica. As ondas gravitacionais são uma maneira totalmente nova de observar os eventos mais violentos no espaço e testar os limites do nosso conhecimento.

Antes da façanha, os físicos sempre utilizaram o espectro eletromagnético para fazer suas descobertas. Mas o experimento provou que também é possível estudar o Universo a partir de outros tipos de ondas existentes. A partir dali, os cientistas se convenceram de que, se é possível detectar ondas gravitacionais, talvez seja possível descrever fenômenos que não emitem ondas eletromagnéticas suficientemente significativas para serem observadas.

A existência das ondas gravitacionais passou a ser concebida quando, no final dos anos 1950, estudos demonstraram que as ondas carregavam energia; e, por isso, poderiam ser mensuráveis.

Em 1970, os astrônomos Joseph Taylor e Russel Hulse mostraram que as estrelas giravam ao redor delas mesmas e, com isso, perdiam energia. Esta energia perdida seria uma indicação da existência das ondas gravitacionais. Por esse achado, Taylor e Hulse foram laureados com o Nobel de Física de 1993.

Entretanto, estas demonstrações eram indicações indiretas das ondas gravitacionais. A evidência direta do fenômeno só viria depois de um imenso esforço, uma vez que não seria fácil provocar alterações no espaço-tempo.

Em meados da década de 1970, Rainer Weiss já havia analisado possíveis fontes de ruído de fundo que perturbariam as medidas e também desenharam um detector, um interferômetro a laser, que superaria este ruído. No começo, tanto Kip S. Thorne quanto Rainer Weiss estavam firmemente convencidos de que as ondas gravitacionais podiam ser detectadas e provocavam uma revolução no nosso conhecimento do Universo.

"Antes nós víamos o Universo. Agora, nós começamos a ouvi-lo”, disse Thorne.

As ondas gravitacionais se espalham à velocidade da luz, preenchendo o Universo. Elas sempre são criadas quando uma massa acelera, como os rodopios de um patinador de gelo ou um par de buracos negros girando um em torno do outro. O físico Albert Einstein estava convencido de que nunca seria possível mensurá-las. A realização do projeto LIGO foi usar um par de interferômetros a laser gigantes para medir uma mudança milhares de vezes menor do que um núcleo atômico, quando a onda gravitacional passar pela Terra.

Apesar do importante papel dos três laureados na descoberta das ondas gravitacionais, as pesquisas tiveram participação de mais de mil cientistas de mais de vinte países, incluindo grupos brasileiros liderados por Odylio Aguilar, do Instituto Nacional de Pesquisas Espaciais (Inpe), e por Riccardo Sturani, do Centro Internacional de Física Teórica, da Universidade Estadual Paulista (Unesp).

O Instituto Karolinska anunciou em setembro um reajuste de 12% no valor dos prêmios Nobel, que permanecia o mesmo desde 2012: 8 milhões de coroas suecas, o equivalente a cerca de US$ 981 mil, ou R$ 3,1 milhões. Os vencedores de 2017 receberão 9 milhões de coroas, o que significa US$ 1,1 milhão, ou cerca de R$ 3,5 milhões.

Até agora, todos os tipos de radiação e partículas eletromagnéticas, como os raios cósmicos ou os neutrinos, foram utilizados para explorar o Universo. No entanto, as ondas gravitacionais são testemunho direto de interrupções no espaço-tempo. Isso é algo completamente novo e diferente, abrindo mundos invisíveis. Muitas descobertas prosperarão das ondas gravitacionais, propiciando interpretar suas mensagens.

Fonte: The Royal Swedish Academy of Sciences

sábado, 30 de setembro de 2017

Raios cósmicos têm origem extragaláctica

Pesquisadores participantes da colaboração Pierre Auger descobriram que, acima de um determinado nível de energia, estas partículas, que são as mais energéticas da natureza e atingem constantemente a atmosfera terrestre, têm origem extragaláctica.

cascatas de partículas geradas por raios cósmicos

© Pierre Auger (cascatas de partículas geradas por raios cósmicos)

A colaboração Pierre Auger, o maior observatório do mundo dedicado ao estudo e à detecção de raios cósmicos, está localizado na província de Mendoza, na Argentina. O observatório possui esta denominação em homenagem ao físico francês Pierre Auger (1899-1992).

“A chance de essa conclusão ser fruto do acaso é de dois em 100 milhões,” disse Carola Dobrigkeit Chinellato, professora do Instituto de Física Gleb Wataghin da Universidade Estadual de Campinas (IFGW-Unicamp) e presidente da comissão brasileira no Observatório Pierre Auger.

A partir de dados registrados pelo Observatório entre janeiro de 2004 e agosto de 2016, os pesquisadores observaram que raios cósmicos ultraenergéticos, acima de 8 x 1018 eV (elétrons-volts) chegam em maior número à Terra vindos de um lado do céu.

Esta região no céu de onde vêm mais raios cósmicos ultraenergéticos coincide com a localização de grande parte das galáxias vizinhas da Via Láctea, em um raio de até 700 mil anos-luz.

Esta é uma forte evidência de que os raios cósmicos de altas energias vêm de fora da Via Láctea.

De acordo com os pesquisadores participantes da colaboração, a descoberta contribui não apenas para entender a origem destas partículas ultraenergéticas, como também os mecanismos cósmicos capazes de imprimir tamanha energia a estas diminutas entidades subatômicas, que podem viajar a distâncias de trilhões de quilômetros (anos-luz) através do espaço e chegar à Terra carregando energias extremas.

Núcleos atômicos leves como o do hidrogênio ou pesados como o do ferro, os raios cósmicos chegam à Terra vindos do espaço, a todo instante.

O fluxo destas partículas subatômicas para a Terra, contudo, diminui abruptamente conforme a energia aumenta. As de energia acima de 1018 eV, denominadas ultraenergéticas, como a que os pesquisadores detectaram agora, aparecem na Terra com uma frequência de 1 partícula por quilômetro quadrado (km²) por ano.

Por este motivo, a origem e os mecanismos cósmicos de produção destes raios cósmicos ultraenergéticos, conhecidos há mais de 50 anos, continuam sendo um mistério.

A fim de identificar indícios da origem destas partículas subatômicas de mais alta energia, os pesquisadores membros da colaboração Pierre Auger têm estudado a distribuição de suas direções de chegada à Terra.

Ao atingirem a atmosfera terrestre, a cerca de 10 km a 20 km de altitude, os raios cósmicos ultraenergéticos colidem com núcleos atômicos do ar, como de nitrogênio e oxigênio.

Estas colisões geram centenas ou milhares de outras partículas que seguem rumo ao solo, quase à velocidade da luz (de cerca de 300 mil km por segundo), na forma de cascatas de partículas, chamadas de “chuveiro atmosférico extenso”.

As partículas carregadas no chuveiro excitam as moléculas de nitrogênio no ar, produzindo uma tênue luz azul, que é captada por telescópios de fluorescência do Observatório Pierre Auger durante noites claras.

As partículas também são registradas por 1.660 detectores de superfície do observatório. Espalhados por uma área de 3 mil km2, em uma região plana ao lado dos Andes, os detectores, que operam ininterruptamente, consistem em tanques de polietileno, preenchidos com 12 mil litros de água ultrapurificada e instrumentalizados com sensores fotomultiplicadores.

Quando as partículas de um chuveiro atmosférico atravessam a água no interior do tanque é emitida luz, chamada radiação Cherenkov, que pode ser medida nos sensores.

Com base na análise destes dois tipos de luz, entre outros dados, é possível extrair diversas informações sobre o raio cósmico (dito primário) que iniciou a cascata de partículas no alto da atmosfera.

Fonte: Science

domingo, 3 de setembro de 2017

Arapuca para detectar fótons

O Arapuca é um equipamento que está em análise e tem grande chance de ser adotado como um dos principais componentes do sistema de fotodetecção do Dune (Deep Underground Neutrino Experiment).

ilustração da interação neutrino e antineutrino

© Fermilab (ilustração da interação neutrino e antineutrino)

O Arapuca foi concebido para detecção de fótons pelos cientistas Ettore Segreto, professor do Instituto de Física Gleb Wataghin, da Universidade Estadual de Campinas (Unicamp) e Ana Amélia Bergamini Machado, professora do Centro de Ciências Naturais e Físicas, da Universidade Federal do ABC (UFABC).

O Arapuca é uma espécie de armadilha para capturar a luz. Um dos desafios para o sistema de fotodetecção do Dune é que os tanques de argônio onde deverão ocorrer as cintilações são muito grandes e os sensores de luz disponíveis são muito pequenos. Em particular, os sensores de silício que serão utilizados têm uma superfície coletora da ordem de apenas 1 cm². A função do Arapuca é aumentar a área de coleta e aprisionar os fótons coletados dentro de uma caixa, para disponibilizá-los aos sensores.

A interação das partículas geradas pelos neutrinos com o argônio líquido dos grandes tanques produz luz com comprimento de onda de 128 nanômetros. Por meio de um filtro, o comprimento de onda é modificado para 350 nanômetros. Como a janela do Arapuca é transparente para este comprimento de onda, os fótons conseguem entrar. Porém, uma vez lá dentro, um segundo filtro é usado para fazer o comprimento de onda retornar aos 128 nanômetros. E os fótons não conseguem sair, porque a janela é opaca para este comprimento de onda. Aprisionados, eles ficam ricocheteando nas paredes altamente reflexivas da caixa, até serem captados pelos sensores colocados no interior.

Estes filtros, chamados genericamente de deslocadores de comprimento de onda, são constituídos por materiais orgânicos (hidrocarbonetos policíclicos aromáticos) que absorvem fótons em uma banda de frequências e os reemitem em outra. No caso, serão utilizados o para-terfenilo e o tetrafenil butadieno. O Arapuca já foi incorporado ao sistema de fotodetecção do ProtoDune, um protótipo em grande escala do Dune, que está sendo construído e deverá entrar em operação no CERN (European Organization for Nuclear Research) em outubro de 2018. Responsáveis pelo sistema de fotodetecção do ProtoDune, Segreto e Machado encontram-se atualmente no CERN.

A função do ProtoDune é testar todas as soluções tecnológicas que serão utilizadas posteriormente no Dune. O teste não será feito com neutrinos, mas com um feixe de partículas eletricamente carregadas, produzidas por um dos aceleradores do CERN, e apontadas para um detector com cerca de mil toneladas de argônio líquido. Já o Dune utilizará, no total, 70 mil toneladas de argônio líquido, 40 mil das quais comporão o tanque de detecção propriamente dito.

Resumidamente, o acelerador do Fermilab produzirá o mais poderoso feixe de neutrinos já estudado. Este feixe será detectado duas vezes: primeiro, bem perto da fonte, no próprio Fermilab, no estado de Illinois; depois, a 1.300 quilômetros da fonte, no estado de South Dakota.

O segundo detector é o gigante preenchido por 70 toneladas de argônio, mantido em estado líquido por uma refrigeração a –184 ºC. O que ele registrará serão os chuveiros de partículas e luz produzidos quando os neutrinos superenergéticos arrancarem de suas órbitas elétrons dos átomos de argônio. Um dos principais alvos do Dune é comparar, por meio das duas detecções, os padrões de oscilação dos neutrinos e dos antineutrinos. Se estes padrões não forem rigorosamente simétricos, isso fornecerá uma prova concreta da “violação de simetria de carga-paridade” (CPV).

A CPV é um ingrediente fundamental do chamado modelo padrão. E explica por que um Universo que, no início, possuía quantidades idênticas de matéria e antimatéria se transformou em um Universo no qual a matéria é amplamente predominante. Se a composição tivesse se mantido rigorosamente simétrica, matéria e antimatéria teriam se aniquilado. Mas, de acordo com o modelo, a violação de simetria gerou um pequeno excedente de matéria em relação à antimatéria. E foi este excedente que resultou no Universo material.

Além da violação de simetria, os pesquisadores da colaboração internacional esperam poder registrar também, no gigantesco tanque de argônio, um outro fenômeno, que não depende dos neutrinos: o decaimento do próton, previsto pela teoria, porém jamais observado. Se isso ocorrer, e há grande expectativa de que ocorra, o experimento terá proporcionado uma prova empírica da capacidade preditiva de modelos supersimétricos que buscam unificar três das quatro interações conhecidas: eletromagnética, nuclear forte e nuclear fraca.

O terceiro alvo do experimento é o aprimoramento de modelos acerca da formação de estrelas de nêutrons e buracos negros, mediante a observação de neutrinos provenientes do colapso de supernovas.

Fonte: Fermilab

quinta-feira, 27 de julho de 2017

Como detectar ondas gravitacionais com hélio

As ondas gravitacionais de pulsares próximos poderiam ser detectadas usando apenas alguns quilogramas de hélio 4He superfluido, de acordo com físicos nos EUA.

pulsar Vela

© Chandra (pulsar Vela)

A imagem acima mostra a evolução temporal do vento do pulsar Vela observado na faixa de energia espectral de 0,5 a 8 keV.

Seu detector, que ainda não foi construído, poderia medir ondas sonoras no superfluido causadas por ondas gravitacionais na faixa de 0,1 a 1,5 kHz.

As ondas gravitacionais são ondulações no espaço-tempo que são criadas quando objetos massivos são acelerados sob certas condições. A primeira detecção de ondas gravitacionais foi feita em 2015, quando o observatório Laser Interferometer Gravitational-Wave Observatory (LIGO) detectou um sinal de um buraco negro binário coalescente. Mais duas ondas gravitacionais já foram detectadas pela LIGO, ambas associadas a buracos negros binários.

O LIGO é um detector de banda larga que pode captar sinais na faixa de 10 Hz a 5 kHz. É particularmente propício para detectar sinais transitórios associada aos buracos negros coalescentes.

Swati Singh do Williams College, Laura DeLorenzo e Keith Schwab do Caltech e Igor Pikovski da Universidade de Harvard querem construir um detector que possa se concentrar em uma banda de frequência relativamente estreita para detectar ondas gravitacionais de pulsares.

Um pulsar é uma estrela de nêutrons de rotação rápida que deverá transmitir continuamente ondas gravitacionais a uma frequência específica na faixa de 1 Hz a 1 kHz, com a frequência dependendo das características físicas do pulsar. Ao fazer uma medição de banda estreita durante um longo período de tempo, um sinal de ruído muito baixo de um pulsar poderia, em princípio, ser detectado.

Este detector compreende vários quilogramas de hélio superfluido mantido em um recipiente cilíndrico que é acoplado em um ressonador micro-ondas supercondutor. Confinamento no recipiente significa que o superfluido ressoará com ondas de som em determinadas frequências, assim como um instrumento musical.

Esta ressonância acústica também significa que o superfluido deve atuar como uma antena que é sintonizada para detectar ondas gravitacionais em frequências específicas. Quando tal onda gravitacional viaja através do detector, criaria um campo de tensão que produziria ondas sonoras no hélio. O ressonador de micro-ondas converteria essas ondas em um sinal mensurável.

Embora outros tenham tentado fazer estas antenas usando barras de metal, a equipe diz que o hélio superfluido oferece vários benefícios, incluindo o fato de que a frequência do detector pode ser alterada ajustando a pressão do hélio.

Calcula-se que usando a tecnologia de transdutor de micro-ondas de última geração, o detector poderia medir sinais de certos tipos de pulsares depois de alguns meses.

Fonte: New Journal of Physics