terça-feira, 12 de agosto de 2014

Assistindo a morte do gato de Schrödinger

Um dos famosos exemplos da estranheza da mecânica quântica é o paradoxo do gato de Schrödinger.

o gato de Schrödinger

© Revista Física (o gato de Schrödinger)

O gato de Schrödinger é um experimento mental, em que um gato é posto em uma caixa onde um frasco de veneno pode ser aberto pelo estado de uma partícula quântica. Se você colocar um gato dentro de uma caixa opaca e fazer a sua vida dependente de um evento aleatório, quando é que o gato morrerá? Quando eventos ocorrerem ao acaso, ou quando você abrir a caixa?

Embora o senso comum sugere que na mecânica quântica a interpretação de "Copenhagen" enunciada pelo físico dinamarquês Niels Bohr em 1920, diz que é o último. Alguém tem que observar o resultado antes que se torne definitiva. Até então, paradoxalmente, o gato está vivo e morto ao mesmo tempo.

Uma equipe de físicos das universidades de Rochester, Berkeley e Washington, pela primeira vez mostrou que, de fato, é possível acompanhar através de todo o processo, se o gato vive ou morre no final.

O paradoxo do gato de Schrödinger é uma questão crítica em computadores quânticos, onde a entrada é um emaranhado de estados, como a vida e morta embaralhada do gato, ainda a resposta para saber se o animal está vivo ou morto tem de ser definida.

"Para Bohr e outros, o processo foi instantâneo, quando você abriu a caixa, o sistema entrou em colapso emaranhado em um estado clássico definido. Este postulado agitado debate na mecânica quântica", disse Irfan Siddiqi, professor associado de física da Universidade da Califórnia, em Berkeley. "Mas o rastreamento em tempo real de um sistema quântico mostra que é um processo contínuo, e que podemos extrair constantemente informações do sistema, uma vez que vai do quântico ao clássico. Este nível de detalhe nunca foi considerado acessível pelos fundadores da teoria quântica".

Para os computadores quânticos, isso permitiria que a correção de erro fosse contínua. O mundo real, onde a luz e o calor hà vibração, um sistema quântico pode sair de seu estado quântico para um mundo real, o chamado estado clássico, como abrir a caixa para olhar o gato e forçando-o a estar morto ou vivo. A grande questão sobre os computadores quânticos é se é possível extrair informações sem destruir o sistema quântico inteiramente.

É possível sondar continuamente um sistema muito suavemente para obter um pouco de informação e continuamente corrigí-lo, empurrando-o de volta na trajetória, em direção ao objetivo final.

No mundo da física quântica, um sistema pode estar em dois estados superpostos ao mesmo tempo, desde que ninguém esteja observando. Uma observação perturba o sistema e obriga-o estar em um dos dois estados. As funções de onda emaranhadas originais colapsam em um estado clássico.

Nos últimos 10 anos, teóricos como Andrew N. Jordan, professor de física na Universidade de Rochester, desenvolveram teorias que predizem a forma mais provável em que um sistema quântico entrará em colapso.

trajetória quântica

© Irfan Siddiqi (trajetória quântica)

"A equipe de Rochester desenvolveu novos cálculos para prever o caminho mais provável, com alta precisão, da mesma forma pode-se usar equações de Newtown para prever o caminho menos complicado de uma bola rolando montanha abaixo", disse Siddiqi. "As implicações são significativas, como agora nós podemos projetar sequências de controle para dirigir um sistema ao longo de uma determinada trajetória. Por exemplo, em química pode-se usar isso para preferir certos produtos de uma reação sobre os outros."

O pesquisador Steve Weber, um estudante de graduação no grupo de Siddiqi, e ex-companheiro de pós-doutorado da Siddiqi Kater Murch, agora um professor assistente de física na Universidade de Washington em St. Louis, provou que Jordan tem razão. Eles mediram a trajetória da função de onda de um circuito quântico - um qubit, análogo ao bit em um computador normal - como ele mudou. O circuito, de um pêndulo supercondutor chamado de transmon, poderia estar em dois estados de energia diferentes e foi acoplado a um segundo circuito para obter a tensão final, correspondente à frequência da oscilação.

Se uma reação química for sondada em detalhes, por exemplo, será possível encontrar o caminho mais provável que a reação levaria e projetar uma forma de orientar a reação aos produtos que você quer.

"A experiência demonstra que, para qualquer escolha do estado quântico final, o mais provável ou 'caminho ideal' de conectá-los em um determinado momento pode ser encontrada e prevista", disse Jordan. "Isso confirma a teoria e abre caminho para técnicas de controle quântica ativas."

Fonte: Nature

segunda-feira, 11 de agosto de 2014

A velocidade da luz e a explosão de neutrinos

O efeito da gravidade sobre os pares elétron-pósitron virtuais que se propagam através do espaço pode levar a uma violação do princípio da equivalência de Einstein, segundo cálculos de James Franson da Universidade de Maryland, Baltimore County.

remanescente da supernova SN 1987A

© Chandra (remanescente da supernova SN 1987A)

Enquanto o efeito seria pequeno demais para ser medido diretamente utilizando técnicas experimentais atuais, poderia explicar a enigmática anomalia observada durante a famosa supernova SN1987A de 1987.
Em física teórica moderna, três das quatro forças fundamentais - eletromagnetismo, a força nuclear fraca e a força nuclear forte - são descritos pela mecânica quântica. A quarta força, a gravidade, não tem atualmente uma formulação quântica e é melhor descrita pela teoria geral da relatividade de Einstein. Conciliar relatividade com a mecânica quântica é, portanto, uma área importante e ativa da física.
Uma questão em aberto para os físicos teóricos é como a gravidade age sobre um objeto quântico, como um fóton. Observações astronômicas têm mostrado repetidamente que a luz é atraída por um campo gravitacional. Tradicionalmente, este é descrito usando a relatividade geral: o campo gravitacional curva o espaço-tempo, e a luz é levemente desviada quando passa pela região curvada. Na eletrodinâmica quântica, um fóton propagando através do espaço pode ocasionalmente se aniquilar, criando um par elétron-pósitron virtual. Logo depois, o elétron e o pósitron recombinam para recriar o fóton. Se eles estão em um potencial gravitacional, em seguida, para o pouco tempo que eles existem como partículas maciças, eles sofrem o efeito da gravidade. Quando eles se recombinam, eles vão criar um fóton com uma energia que está ligeiramente deslocada e que viaja um pouco mais lento do que se não houvesse potencial gravitacional. 
Franson analisou estas duas explicações para o porquê da luz diminuir à medida que passa através de um potencial gravitacional. Ele decidiu calcular o quanto a luz deve diminuir de acordo com cada teoria, prevendo que ele iria receber a mesma resposta. No entanto, surgiu uma surpresa: as mudanças previstas na velocidade da luz não combinam, e a discrepância tem algumas consequências muito estranhas.
Franson calculou que, considerando a luz como um objeto de quântico, a mudança na velocidade de um fóton não depende da intensidade do campo gravitacional, mas do próprio potencial gravitacional. No entanto, isso leva a uma violação do princípio da equivalência de Einstein, onde a gravidade e aceleração são indistinguíveis, porque o potencial gravitacional é criado junto com a massa, enquanto que em um referencial acelerado em queda livre, não é. Portanto, pode-se distinguir a gravidade da aceleração se um fóton diminui ou não durante a criação partícula-antipartícula.
Um exemplo importante é um fóton e um neutrino propagando em paralelo através do espaço. Um neutrino não pode aniquilar e criar um par elétron-pósitron, de modo que o fóton vai abrandar mais do que o neutrino que passam por um campo gravitacional, potencialmente permitindo que o neutrino viaje mais rápido do que a luz por aquela região do espaço. No entanto, se o problema é visto em um referencial em queda livre no campo gravitacional, nem o fóton nem o neutrino desacelera em tudo, de modo que o fóton continua a viajando mais rápido do que o neutrino.
Embora a ideia de que as leis da física pode ser dependente de um quadro de referência parece sem sentido, que poderia explicar uma anomalia em 1987 quando eclodiu a supernova SN1987A. Um pulso inicial de neutrinos foi detectado 7,7 horas antes da primeira luz da SN1987a chegar à Terra. Isto foi seguido por um segundo impulso de neutrinos, que chegou cerca de três horas antes da luz da supernova. Supernovas produzem grandes quantidades de neutrinos e o intervalo de três horas entre a segunda explosão de neutrinos e a chegada da luz está de acordo com a teoria atual de como uma estrela colapsa para criar uma supernova.
Pensa-se que o primeiro pulso de neutrinos está geralmente relacionado à supernova. No entanto, a probabilidade de uma tal coincidência é estatisticamente improvável. Se os resultados do Franson estão corretos, então a diferença de 7,7 horas entre o primeiro pulso de neutrinos e com a chegada da luz poderia ser explicado pelo potencial gravitacional da Via Láctea abrandar a luz. Isso não explica por dois pulsos de neutrinos precedeu a luz, mas Franson sugere que o segundo pulso pode estar relacionado a um colapso de duas etapas da estrela.
No entanto Franson é cauteloso, insistindo que "há razões muito sérias para ser cético sobre isso e a pesquisa não tem a pretensão de que é um efeito real, só que é uma possibilidade." Ele também é pessimista sobre as perspectivas para a ideia de ser comprovada ou refutada no futuro próximo, dizendo que as chances de outra supernova tão perto são muito baixas, e outros testes possíveis atualmente não têm precisão suficiente para detectar o efeito.
Raymond Chiao, da Universidade da Califórnia, concorda com Franson que, observacional e experimentalmente, "há uma série de ressalvas que precisam ser esclarecidas", mais notavelmente, que se a interpretação hipotética do Franson sobre SN1987A estiver correta, há dois claros pulsos de neutrinos separados em 5 horas, mas pouca evidência de dois pulsos de luz correspondentes. No entanto, ele diz: "Há uma tensão conceitual profundamente arraigada entre a relatividade geral e a mecânica quântica ... Se, de fato, Franson estiver certo, que é um passo enorme, na minha opinião: é a ponta do iceberg em que a mecânica quântica está correta e a relatividade geral deve estar errada."

Fonte: New Journal of Physics

sábado, 9 de agosto de 2014

Partícula dribla Princípio da Incerteza

A mecânica quântica impõe um limite sobre o que podemos saber sobre partículas subatômicas.

aparato para obter medidas da posição de uma luz laser

© UR (aparato para obter medidas da posição de uma luz laser)

Em teoria, se físicos determinarem a posição de uma partícula, eles não podem medir seu momento ao mesmo tempo. Mas um novo experimento conseguiu contornar essa regra, o famoso “Princípio da Incerteza”, ao definir a posição aproximada de uma partícula, mantendo sua capacidade de também medir seu momento.
O Princípio da Incerteza, formulado por Werner Heisenberg em 1927, é uma consequência da imprecisão do Universo em escalas miscroscópicas. A mecânica quântica revelou que partículas não são apenas mínusculas bolinhas de gude que agem como objetos comuns, que podemos ver e tocar. Em vez de ficarem em local e tempo específicos, partículas subatômicas existem em uma nuvem de probabilidade. Suas chances de estar em qualquer dado estado são descritas por uma equação chamada de “função de onda quântica”. Qualquer ato de medir uma partícula “colapsa” sua função de onda, forçando-a a escolher um valor para a característica medida e eliminando a possibilidade de saber qualquer coisa sobre suas propriedades relacionadas.
Recentemente, físicos decidiram verificar se poderiam superar essa limitação usando uma nova técnica de engenharia chamada de “sensoriamento compressivo”. Essa ferramenta para realizar medidas de precisão já foi aplicada com sucesso a fotografias digitais, ressonâncias magnéticas e muitas outras tecnologias. Normalmente, dispositivos de medição realizam uma leitura detalhada e, em seguida, comprimem essa leitura para facilitar seu uso. Câmeras fotográficas, por exemplo, pegam grandes arquivos em formato RAW e os comprimem em JPEG. No sensoriamento compressivo, porém, engenheiros tentam comprimir um sinal durante o processo de mensuração, o que lhes permite realizar muito menos medidas, o equivalente a capturar imagens diretamente como JPEG em vez de RAW.
Essa mesma técnica de obter a quantidade mínima de informação necessária para uma medida parecia oferecer uma maneira de contornar o Princípio da Incerteza. Para testar o sensoriamento compressivo no mundo quântico, o físico John C. Howell e sua equipe da University of Rochester se puseram a medir posição e momento de um fóton, uma partícula de luz. Eles ativaram um laser em uma caixa equipada com um arranjo de espelhos que poderiam apontar para um detector, ou para a direção oposta. Esses espelhos formavam um filtro, permitindo que fótons passassem por eles em alguns pontos e bloqueando-os em outros. Se um fóton chegasse ao detector, os físicos saberiam que ele havia passado por um dos locais em que os espelhos permitiam sua passagem. O filtro fornecia uma maneira de medir a posição de uma partícula sem saber exatamente onde ela estava, sem colapsar sua função de onda. “Tudo que sabemos é se o fóton consegue atravessar o arranjo ou não”, explica Gregory A. Howland, principal autor de um artigo que relata a pesquisa. “Com esse método ainda conseguimos descobrir seu momento, para onde ele está indo. Mas pagamos um preço por isso: sua medida de direção fica com um pouco de ruído”. Uma medida menos precisa de momento, porém, é melhor que nenhuma.
Os físicos salientam que não quebraram nenhuma lei da física. “Nós não violamos o Princípio da Incerteza”, observa Howland. “Nós só o usamos de maneira inteligente”. A técnica poderia se provar poderosa no desenvolvimento de algumas tecnologias, como criptografia e computação quântica, que procuram controlar as confusas propriedades quânticas de partículas para usá-las em aplicações tecnológicas. Quanto mais informações obtivermos de medições quânticas, melhor será o desempenho dessas tecnologias. O experimento de Howland oferece uma medida quântica mais eficiente do que era tradicionalmente possível, comenta Aephraim M. Steinberg, físico da University of Toronto que não se envolveu na pesquisa. “Essa é uma de várias novas técnicas que parecem determinadas a se provar indispensáveis para a avaliação de grandes sistemas de forma econômica”. Em outras palavras, os físicos parecem ter encontrado uma maneira de conseguir mais dados com menos medidas.

Um artigo foi publicado no periódico Physical Review Letters.

Fonte: Scientific American

sexta-feira, 8 de agosto de 2014

Medido rastro de “chuveiro atmosférico”

Uma equipe internacional de pesquisadores descobriu uma nova forma de estudar os rastros deixados pelos "chuveiros atmosféricos".

raios cósmicos ultraenergéticos

© ASPERA (raios cósmicos ultraenergéticos)

O grupo é constituído por 102 cientistas de diversas universidades do mundo, entre eles o docente do Instituto de Física de São Carlos (IFSC/USP), Luiz Vitor de Souza Filho.

A união desse número expressivo de pesquisadores explica-se pela participação de todos eles em experimentos realizados no Observatório Pierre Auger, instalado aos pés da Cordilheira dos Andes, no Deserto de El Nihuil, na Argentina, e com o objetivo principal de detectar e estudar raios cósmicos ultra-energéticos, partículas que podem alcançar energias cerca de 1.000 vezes maiores do que as obtidas pelos atuais aceleradores de partículas.

Desde sua fundação, o Observatório Pierre Auger trabalha com duas ferramentas distintas para medição dos raios ultra-energéticos: a de "tanques de água", também conhecidos por "detectores de Cherenkov", e a de telescópios de fluorescência. Uma terceira, recém-descoberta, a "técnica de detectores de rádio", vem não para "aposentar" as anteriores, mas sim complementá-las. "Os membros do Observatório buscam, continuamente, o desenvolvimento de técnicas novas que tragam medidas mais precisas e detalhadas para, dessa forma, ampliar as possibilidades do Observatório como um todo", explica Luiz Vitor.

Através da técnica de detectores de rádio, descrita no artigo publicado na Physical Review D, intitulado Probing the radio emission from air showers with polarization measurements, são medidos os rastros deixados pelos "chuveiros atmosféricos" (air shower), cascatas de partículas que atravessam a atmosfera ininterruptamente. Invisível a olho nu, esse chuveiro, que é composto por prótons, elétrons, neutrinos, mésons e diversas outras partículas, atravessa os tanques de água deixando um tipo de "impressão digital", que será analisada pela nova técnica: "No trajeto entre a atmosfera e o solo, as partículas interagem com o hidrogênio presente no ar e emitem um flash luminoso muito fraco, visualizado pelos telescópios, e, ao mesmo tempo, emitem ondas de rádio", detalha Luiz Vitor.

A identificação e medição dessas ondas serão feitas por um conjunto de antenas espalhadas por uma grande área. Através de um sinal sincronizado entre elas, ondas de rádio emitidas pelo chuveiro atmosférico serão identificadas e, posteriormente, medidas.

Por ser largamente difundida para outros usos, a técnica de detectores de rádio não exige um grande desenvolvimento tecnológico para sua adaptação aos propósitos específicos do Observatório e tem um custo muito baixo. E, embora ainda não estejam sendo utilizados no Observatório, os detectores de rádio já estão hospedados no Pierre Auger há cinco anos. "No deserto, onde eles estão instalados, o local é ótimo para realização desses experimentos, pois a poluição de sinais e ruídos advindos de ondas de rádio em geral é quase nula", explica o docente.

O artigo trouxe detalhes sobre a operação dos novos detectores e a explicação e desenvolvimento da técnica de rádio. Por esse motivo, nenhum objetivo de astrofísica é mencionado. "Na literatura, duas teorias explicavam dois efeitos diferentes para emissão de ondas de rádio pelo chuveiro atmosférico: Efeito geomagnético e Efeito Askaryan, mas as evidências nunca haviam sido medidas. Esse, provavelmente, foi motivo pelo qual o artigo ganhou destaque e foi aceito numa importante revista científica da área", conta Luiz Vitor.

O próximo passo para o aprimoramento da pesquisa é o investimento, tanto financeiro quanto intelectual, no projeto. "Embora os resultados tenham sido positivos, a técnica de rádio mostrou algumas falhas, o que não a torna o 'carro-chefe' de uma nova etapa do Observatório. Apesar disso, os resultados são bons o suficiente para que continuemos investindo, mesmo que, paralelamente, outras técnicas também sejam investigadas", afirma Luiz Vitor. "Um dos objetivos do Observatório, inclusive, é se tornar um centro de medidas em astrofísica de partículas, o que reforça a intenção de reunir e estudar outros processos".

Mesmo que num primeiro momento a astrofísica não seja o foco do projeto, a técnica de rádio, apesar de suas limitações, poderá ajudar a trazer explicações que serão utilizadas para o constante melhoramento dos experimentos. Isso permitirá que diversas interrogações sejam finalmente esclarecidas e, consequentemente, possibilitará que a astrofísica avance no seu papel principal de desvendar os inúmeros enigmas de nosso Universo.

Fonte: IFSC/USP

sexta-feira, 16 de maio de 2014

Elemento 117 e estabilidade de átomos

Físicos criaram um dos elementos mais pesados já vistos: um átomo com 117 prótons em seu núcleo.

ununséptio

© LLNL (ununséptio)

Esse gigante fica nos limites da tabela periódica, onde núcleos inflados tendem a se tornar cada vez menos estáveis. Mas a existência do elemento 117 dá esperança a cientistas: eles podem estar se aproximando da lendária “ilha de estabilidade” onde núcleos com os chamados ‘números mágicos’ de prótons e nêutrons passam a ter vida longa.
Elementos mais pesados que o urânio (que tem 92 prótons) não são comumente encontrados na natureza, mas podem ser criados em laboratórios. Um problema surge devido à configuração dos prótons, pois quanto maior um núcleo atômico se torna, mais seus prótons repelem uns aos outros com suas cargas positivas. Isso, em geral, os torna menos estáveis, ou mais radioativos. O elemento 117, por exemplo, tem uma meia-vida de 50 milésimos de segundo, o que significa que dentro desse tempo, metade dele decairá em um elemento mais leve.
Uma equipe de russos e americanos criou o elemento 117 pela primeira vez em 2010, no Instituto Conjunto de Pesquisa Nuclear em Dubna, na Rússia. O elemento ainda não é considerado oficial, e precisa ser formalmente aceito e adicionado à tabela periódica pela União Internacional de Química Pura e Aplicada (IUPAC). O livermório (elemento 116) é até agora o mais superpesado a ter sido confirmado.

A nova aparição do 117, em experimentos do Centro GSI Helmholtz de Pesquisa com Íons Pesados em Darmstadt, na Alemanha, deve ajudar o elemento a receber reconhecimento oficial. “Em contraste com a primeira descoberta, nós somos uma equipe diferente, em um local diferente, usando um dispositivo diferente”, observa Christoph Düllmann, que conduziu a colaboração do GSI. “Eu acho que isso vai mudar a visão que a comunidade científica tem sobre elemento 117. Ele deve passar de um elemento que se alegava ter sido observado, para um elemento confirmado”.
Para criar o 117, que tem o nome temporário de ‘ununséptio’, os pesquisadores fizeram núcleos de cálcio (com 20 prótons cada um) se chocarem contra núcleos de berquélio (97 prótons).
O experimento demorou a ser realizado, em parte, porque é difícil conseguir berquélio. “Nós tivemos que fazer uma parceria com o único local do planeta onde o berquélio pode ser produzido e isolado em quantidade significativa”, explica Düllmann. Esse local é o Laboratório Nacional Oak Ridge, no Tennessee, que tem um reator nuclear capaz de criar esse raro elemento com uma meia-vida de 330 dias.
A instalação precisou de aproximadamente dois anos para estocar a quantidade de berquélio necessária para o experimento; quando cerca de 13 miligramas foram acumulados, cientistas de Oak Ridge enviaram o elemento para a Alemanha, para começar a próxima fase do projeto.
No GSI, pesquisadores aceleraram íons de cálcio a 10% da velocidade da luz, e fizeram com que colidissem com o berquélio. Quando um núcleo de cálcio colidia diretamente com um de berquélio, ocasionalmente os dois se fundiam, dando origem a um novo elemento com um total de 117 prótons. “Nós produzimos cerca de um átomo por semana”, conta Düllmann.
O elemento 117 não foi observado diretamente. O que os cientistas fizeram foi procurar seus subprodutos após ele ter decaído radioativamente emitindo partículas alfa – núcleos de hélio com dois prótons e dois nêutrons. “Os núcleos pesados realizam o decaimento alfa para produzir o elemento 115, e ele também decai por meio de partículas alfa”, explica Jadambaa Khuyagbaatar do GSI.

Após alguns passos nessa cadeia de decaimento, um dos núcleos produzidos é o isótopo laurêncio-266, um núcleo com 103 prótons e 163 nêutrons que nunca fora visto antes. Isótopos anteriormente conhecidos de laurêncio têm menos nêutrons, e são menos estáveis. Essa nova espécie, porém, têm uma meia-vida incrivelmente longa de 11 horas, o que o torna um dos isótopos superpesados mais longevos conhecidos. “Talvez nós estejamos na praia da ilha de estabilidade”, brinca Düllmann.
Ninguém sabe com certeza onde fica essa ilha, ou sequer se ela existe. A teoria sugere que os próximos números mágicos além dos conhecidos ficam por volta de 108, 110 ou 114 prótons, e 184 nêutrons. Essas configurações, de acordo com cálculos, poderiam levar a propriedades especiais que permitem que átomos sobrevivem muito mais tempo que espécies semelhantes. “Todos os dados existentes para os elementos 116, 117 e 118 confirmam que o tempo de vida aumenta conforme nos aproximamos de 184 nêutrons”, declara o teórico Witold Nazarewicz de Oak Ridge, que não se envolveu no estudo.

Núcleos mágicos superpesados podem acabar tendo formas interessantes que conferem estabilidade, como a chamada “configuração bolha” com um buraco no meio. “Esses núcleos ainda não foram descobertos, mas a região que está sendo explorada no momento realmente fica na fronteira do território das bolhas”, aponta Nazarewicz.
Se uma ilha de estabilidade realmente existir, não há limite para a duração de seus núcleos. Eles podem acabar sendo estáveis o bastante para serem encontrados na natureza, mesmo que em quantidades tão pequenas que ainda não os encontramos. Vários pesquisadores estão procurando evidências dessas espécies superpesadas já existentes, que talvez tenham se formado por meio de poderosos eventos cósmicos como a fusão de duas estrelas de nêutrons. Ainda que nenhum deles tenha sido encontrado até agora, cientistas têm esperanças de que evidências da ilha de estabilidade estejam logo adiante, existindo ou não.

Um artigo relatando os resultados foi publicado em 1º de maio no Physical Review Letters.

Fonte: Scientific American e New Scientist

domingo, 13 de abril de 2014

Mais uma partícula exótica atinge IceCube

O experimento IceCube foi atingido por três neutrinos carregados de energias superiores à elevada faixa de voltagem 1015 PeV (Peta elétron-Volts), sugerindo que eles podem ser irradiados por explosões titânicas nas profundezas do espaço.

IceCube

© NSF/C. Pobes (IceCube)

Até o momento, a instalação subterrânea no polo sul já descobriu três dos neutrinos mais energéticos já encontrados; partículas que talvez sejam criadas nas explosões mais violentas do Universo. Todos esses neutrinos têm energias na escala absurdamente alta de PeV, uma energia aproximadamente equivalente a um milhão de vezes a massa de um próton. Como Albert Einstein mostrou em sua famosa equação E = mc2, energia e massa são equivalentes, e uma quantidade tão grande de massa se converte em um nível extremo de energia.
O experimento, chamado IceCube, revelou a descoberta dos dois primeiros neutrinos, apelidados Ernie e Bert, no ano passado. A descoberta do terceiro foi anunciada no dia 7 de abril no encontro da Sociedade Física Americana, em Savannah. “Internamente, ele é conhecido como Big Bird”, informou o físico do IceCube Chris Weaver, da University Wisconsin-Madison.
Esses neutrinos são valiosos por serem muito “reservados”, raramente interagindo com outras partículas. Além disso, como não possuem cargas energéticas, sua direção nunca é desviada por campos magnéticos no Universo. Por essa razão, suas trajetórias deveriam apontar diretamente para suas fontes de origem que, na opinião de astrônomos, poderiam ser diversos eventos intensos, como gigantescos buracos negros incorporando matéria, explosões chamadas erupções de raios gama ou galáxias formando estrelas a ritmos alucinantes.
A propensão a não interagir dificulta imensamente a detecção de neutrinos. O experimento IceCube procura registrar as ocasiões extremamente raras quando neutrinos colidem com átomos em um quilômetro cúbico (km3) de gelo enterrado abaixo do polo sul. Essa blindagem é necessária para filtrar (eliminar) colisões de outras partículas, mas ela não inibe neutrinos.
O experimento aproveita o gelo naturalmente puro do local, utilizando uma região subterrânea que tem duas vezes a profundidade do Grand Canyon.
Milhares de detectores de luz estão embutidos no gelo para captar os pequenos “blips”, pontos de luz criados quando neutrinos são capturados. Essas interações não são tão frequentes que pesquisadores do IceCube tiveram que procurar durante dois anos para encontrar os três neutrinos de alta energia.
Durante esse período o instrumento também detectou 34 neutrinos de energias um pouco mais baixas. Acredita-se que alguns deles sejam contaminações criadas quando partículas carregadas, chamadas raios cósmicos, atingem a atmosfera da Terra, mas uma parcela das capturas do IceCube provavelmente veio diretamente de processos violentos no Cosmos. Essas partículas são chamadas neutrinos astrofísicos. “Parece que conseguimos reunir evidências convincentes de neutrinos astrofísicos”, comemora o físico Albrecht Karle, da University of Wisconsin-Madison e membro da equipe do IceCube.
Os próprios raios cósmicos são um mistério.
Acredita-se que os mais enérgicos entre eles tenham origem nos mesmos processos que geram neutrinos astrofísicos. Mas como raios cósmicos (que, apesar do nome, na realidade são partículas de alta energia) têm cargas energéticas, eles viajam através do Universo por caminhos curvos, moldados por campos magnéticos.
O resultado disso é que eles não preservam informações de onde vieram. Estudar neutrinos é uma maneira de tentar entender a origem dos raios cósmicos de alta energia que, de algum modo, são acelerados a uma velocidade quase igual à da luz em algum tipo de acelerador de partículas cósmico.
Mas como, exatamente, isso acontece é uma questão em aberto que apenas mostra o quanto não sabemos sobre os processos mais violentos no Universo. “Esse é o maior mistério de nosso século”, admite Toshihiro Fujii, um pesquisador de raios cósmicos do Instituto Kavli para Física Cosmológica da University of Chicago. Fujii não esteve envolvido no experimento IceCube, mas garante que seus resultados ajudarão sua meta de compreender os raios cósmicos.
Um debate que envolve neutrinos de alta energia e raios cósmicos é se eles vêm de fontes galácticas ou extragalácticas; em outras palavras: eles se originam dentro ou fora de nossa galáxia, a Via Láctea?
A maioria das teorias favorece fontes extragalácticas como núcleos galácticos ativos, buracos negros supermassivos nos centros de outras galáxias que se alimentam de matéria.
Outra opção seriam erupções de raios gama, as explosões mais brilhantes conhecidas no Universo, que podem ocorrer durante o nascimento de algumas supernovas ou quando duas estrelas de nêutrons se fundem.
Outra possibilidade é que essas partículas são um subproduto de galáxias que estão colidindo e enviando ondas de choque através de seus gases, fazendo com que estrelas se formem a velocidades fantásticas.
Também é possível que a matéria escura, que supera de longe a matéria conhecida no Universo, esteja, de alguma forma, criando raios cósmicos e neutrinos de alta energia.
Com base na direção em que os 37 neutrinos viajavam quando atingiram o IceCube, poucos deles parecem ter se originado no plano galáctico, a parte mais densa da Via Láctea. Isso sugere que eles vieram de fora da nossa galáxia. “Alguns dos eventos mais interessantes estão muito distantes do plano galáctico”, salientou Nathan Whitehorn, pesquisador do IceCube na University Wisconsin-Madison.

À medida que o experimento capturar mais neutrinos de alta energia nos próximos anos, o mapa do IceCube de fontes de neutrinos no céu será aprimorado.
Cientistas estão particularmente interessados em descobrir se qualquer uma das partículas que o IceCube detecta pode ser rastreada até objetos cosmológicos conhecidos, como núcleos galácticos ativos visíveis ou erupções de raios gama. “Até hoje não temos qualquer evidência de correlação com uma fonte conhecida”, admite Naoko Kurahashi Neilson, outro colaborador do projeto IceCube na University Wisconsin-Madison.

Fonte: Scientific American

segunda-feira, 24 de fevereiro de 2014

Discrepância cósmica e existência de neutrinos

Os neutrinos, algumas das partículas mais numerosas do Universo, também estão entre as mais misteriosas.

neutrino de elétron aparece no detector Super Kamiokande

© T2K (neutrino de elétron aparece no detector Super Kamiokande)

A imagem mostra Um candidato a neutrino de elétron aparece no detector Super Kamiokande, do experimento japonês T2K, que já observou um número recorde de neutrinos trocando de “sabor”.

Nós sabemos que eles têm massa, mas não quanta massa. Sabemos que eles têm pelo menos três tipos, ou “sabores”, mas podem existir mais.
Um novo estudo descobriu que uma discrepância entre observações de aglomerados galácticos e medidas da radiação cósmica de fundo poderiam ser explicadas se neutrinos fossem mais massivos do que se acredita normalmente. Isso também oferece indícios tentadores da existência de um quarto tipo de neutrino, que até agora nunca foi observado.
A tensão entre aglomerados galácticos e a radiação cósmica de fundo (CMB, em inglês) é um problema cada vez maior, mas que talvez possa ser resolvido com a obtenção de dados melhores nos próximos anos.
A radiação de fundo mostra as pequenas variações de densidade no Universo primitivo que fizeram a matéria se acumular em alguns lugares e deixar espaços vazios em outros. O resultado final dessa aglomeração pode ser visto no Universo recente, com a disseminação de aglomerados galácticos pelo espaço.
As melhores medidas da radiação cósmica de fundo vieram do telescópio orbital Planck da ESA, em março de 2013.
Medidas de aglomerados galácticos, por outro lado, vêm de vários métodos, e entre eles está o mapeamento da disseminação de massa pelo Universo; esse mapeamento é realizado com a localização de lentes gravitacionais, a curvatura da luz provocada por aglomerados galácticos.
As duas medidas, porém, são discrepantes entre si. “Nós comparamos o Universo primitivo com o Universo mais recente, e temos um modelo que extrapola os dois”, explica Richard Battye da University of Manchester, na Inglaterra. “Se ficarmos com o modelo que se adequa aos dados da radiação cósmica de fundo, o número de aglomerados encontrados se torna menor que o esperado por um fator de dois”.
A discrepância poderia ser explicada se neutrinos tiverem atrapalhado o processo de formação de aglomerados galácticos, o que é uma possibilidade se essas partículas tiverem massa suficiente.
Acredita-se que em algum momento do passado o Universo cruzou um limiar energético que correspondia à massa dos neutrinos: quando o Universo ainda era quente e denso, no início de sua vida, neutrinos teriam sido relativísticos, movendo-se à velocidade da luz. Nesse estado, eles não teriam se aglomerado sob a força de sua própria atração gravitacional.
Após o Universo esfriar e cruzar o limiar energético, porém, neutrinos teriam desacelerado e começado a se mover a velocidades sub-luminares. Então eles finalmente teriam começado a se aglomerar como o resto da matéria do Universo. “O número de aglomerados galácticos que veríamos no Universo é uma função da massa dos neutrinos”, explica Battye. “Quanto mais massivos eles forem, maior sua contribuição para a densidade total de matéria do Universo, e eles acabam limitando levemente o processo de formação de aglomerados galácticos”.
Battye e seu colaborador, Adam Moss da University of Nottingham, na Inglaterra, descobriram que o número de aglomerados que vemos atualmente pode ser explicado se as massas dos três neutrinos conhecidos chegarem a aproximadamente 0,32 elétron-volt (com uma variação de 0,081), ou cerca de um terço de bilionésimo da massa de um próton.
Estimativas anteriores sugeriram que a massa dos neutrinos só precisaria atingir 0,06 elétron-volt. Uma massa total tão grande seria surpreendente e “muito interessante, com várias consequências positivas”, observa o físico teórico André de Gouvêa da Northwestern University, que não se envolveu no estudo.
Isso indicaria, por exemplo, que os três sabores de neutrino – elétron, múon e tau – têm quase exatamente a mesma massa, o que seria um pouco inesperado. Isso “teria um impacto sobre a maneira com que tentamos compreender o mecanismo por trás de massas de neutrino”, aponta Gouvêa.
Além disso, Battye e Moss encontraram evidências de que um quarto tipo de neutrino pode existir: um que seja “estéril”.
“A ideia é muito empolgante”, declara o físico Joseph Formaggio do Instituto de Tecnologia de Massachusetts, que também não participou do estudo. “Nós esperamos encontrar três neutrinos. Mas com quatro haverá uma física além do Modelo Padrão”.
Os três neutrinos conhecidos têm a capacidade bizarra de trocar de sabor. Um neutrino estéril não seria capaz de fazer isso, e teria uma interação ainda mais fraca com a matéria comum que os sabores conhecidos, que já são bem tímidos.
Há muito tempo teóricos sugerem que neutrinos estéreis podem existir, mas até agora não há provas disso. Indícios recentes de alguns aceleradores de partículas, porém, começaram a sugerir que eles estão por aí. “O que é realmente interessante é que a massa desse neutrino estéril é consistente com o que foi observado pelos outros experimentos”, aponta Formaggio.

E, coincidentemente, outro estudo apoiando a ideia de neutrinos estéreis e massas maiores para essas partículas também foi produzido. Esse trabalho, conduzido por Mark Wyman da University of Chicago, também examinou tensões entre os dados do Planck e aglomerados galácticos, e chegou a conclusões semelhantes às de Battye e Moss.
Durante muitos anos acreditou-se que neutrinos não tinham massa nenhuma, mas a descoberta de que eles podem trocar de sabor também provou que eles têm pelo menos um pouquinho de massa.
Acredita-se que o estado de cada sabor seja uma mistura das três massas desconhecidas dos neutrinos e é por causa dessa mistura que qualquer sabor tem uma chance de se transformar em um dos outros com o passar do tempo.
A transformação só é possível se os estados de massa forem diferentes uns dos outros, e essa diferença só é possível se a massa dos neutrinos for diferente de zero, explica Formaggio.
Experimentos que tentam capturar neutrinos durante sua mudança de sabor poderiam ajudar a localizar as diferenças entre as massas dos neutrinos e nos dizer qual deles pesa mais, a chamada “hierarquia de massa de neutrinos”.
Um desses experimentos, chamado de NuMI Off-Axis νeAppearance (NOvA), registrou seus primeiros neutrinos na semana passada.
O experimento cria um feixe de neutrinos no Acelerador do Laboratório Nacional Fermi, perto de Chicago, e os envia para dois detectores, um perto do Fermilab e outro a 800 km de distância, em Ash River, no estado de  Minnesota. Todas as partículas começam como neutrinos de múon mas, em eventos raros, alguns deles chegam ao detector distante após se transformarem em neutrinos de elétron, que criam uma assinatura diferente. A frequência com que isso acontece está relacionada com a diferença entre as massas dos neutrinos de múon e de elétron.
Outro experimento, realizado no Japão, chamado de projeto Tokai to Kamioka (T2K) também procura essas transformações. A equipe anunciou na semana passada ter observado uma quantidade recorde de 28 candidatos a mutações de neutrinos de múon em neutrinos de elétron, e a previsão é que apenas cinco desses eventos sejam outros processos disfarçados.
Essa é a evidência mais forte até o momento para esse tipo de oscilação de neutrino, ainda que muito mais dados sejam necessários para responder perguntas a respeito das massas dessas partículas. “Isso é uma espécie de marco de percurso em uma corrida muito longa”, compara Formaggio. Os dois experimentos são complementares, explica Rick Tesarek, vice-líder de projeto do NovA. “O NovA têm algumas capacidades que o T2K não têm” e vice-versa. Os experimentos usam tecnologias diferentes de detecção que são sensíveis a efeitos diferentes, e o projeto NovA tem uma distância maior entre seu feixe de neutrinos e os detectores mais afastados.
Conforme esses experimentos coletam mais dados, os segredos das massas dos neutrinos podem ser revelados.
Os próximos anos também devem mostrar se as medidas de aglomerados galácticos realmente são incompatíveis com os dados da radiação cósmica de fundo, e assim esclarecer se esses dados indicam massas maiores de neutrinos e/ou um neutrino estéril. “As medidas melhoram o tempo todo”, observa Battye. “Eu imagino que em cinco anos nós saberemos se isso está certo ou não”.

O novo estudo foi publicado na edição de fevereiro no periódico Physical Review Letters.

Fonte: Scientific American

Novo dispositivo solar para gerar eletricidade

Paineis solares estão se tornando cada vez mais comuns. Esses dispositivos são criados com células fotovoltaicas, que absorvem os fótons da luz solar e energizam elétrons no material da célula, criando eletricidade.

dispositivo solar termofotovoltaico

© MIT (dispositivo solar termofotovoltaico)

Imagem do dispositivo em funcionamento. A brilhante faixa laranja é o cristal fotônico, aquecido pela luz solar concentrada e emitindo fótons para a célula fotovoltaica abaixo.

Atualmente, porém, a eficiência máxima de células fotovoltaicas comerciais é de aproximadamente 20%. Essa baixa eficiência vem do fato de que apenas fótons com uma certa quantidade de energia, ou seja, apenas parte do espectro solar, conseguem transferir energia suficiente para os elétrons formarem uma corrente; na prática, os outros fótons são desperdiçados.
A luz solar pode ser convertida em energia térmica, que por sua vez também pode ser usada para gerar eletricidade. A vantagem é que nenhuma parte do espectro é desperdiçada; todas podem ser convertidas em calor. Mas gerar eletricidade a partir de energia térmica solar normalmente requer um sistema de grande escala, com um arranjo de espelhos que refletem e concentram a luz do Sol em tanques ou canos cheios de água ou outros líquidos. O fluido aquecido normalmente é usado para produzir vapor, que gira uma turbina, gerando eletricidade. Ainda que a eficiência desses sistemas seja maior que a de células fotovoltaicas, cerca de 30% em alguns casos, eles não podem ser reduzidos para serem instalados no seu telhado.  
Para superar os vários obstáculos de sistemas solares térmicos e fotovoltaicos, uma equipe de pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) criou um novo dispositivo que combina os elementos dos dois. Essa invenção é conhecida como “dispositivo solar termofotovoltaico”.
Ainda que outros pesquisadores tenham desenvolvido dispositivos desse tipo no passado, a nova criação é a mais eficiente até o momento, de acordo com Evelyn Wang, professora associada de engenharia mecânica do MIT. Mas apesar do avanço, o dispositivo só atinge uma eficiência de 3%.

Mesmo assim, a conquista é notável. Há dois anos, Alejandro Datas, pesquisador da Instituto de Energia Solar da Universidade Politécnica de Madrid, que não se envolveu no estudo, construiu um dispositivo termofotovoltaico que alcançou 1% de eficiência. Ele aponta que triplicar essa eficiência em tão pouco tempo é algo significativo.
Para construir seu dispositivo, os cientistas do MIT usaram nanotubos de carbono, que absorvem luz solar com extrema eficiência; eles se aproximaram do teórico “corpo negro”, que absorve 100% da luz que os atinge.

Os cientistas usaram luz solar concentrada no absorvedor de carbono, elevando sua temperatura a aproximadamente mil graus Celsius. O absorvedor fica anexado a um cristal fotônico, composto de um conjunto de camadas de silício e dióxido de silício, que começa a brilhar em temperaturas tão altas. O cristal brilhante emite fótons, que viajam até a célula fotovoltaica subjacente. Mas ao contrário da luz solar comum, a maior parte dos fótons emitidos pelo cristal tem energia suficiente para fazer com que os elétrons gerem uma corrente elétrica. Ao converter a luz solar em calor, e depois reconvertê-la em luz, o dispositivo ajusta a energia dos fótons absorvidos pela célula fotovoltaica, maximizando seu potencial para gerar eletricidade.
Como os nanotubos de carbono absorvem a luz solar com tanta eficiência, eles não desperdiçam nenhuma parte do espectro, convertendo quase todo ele em energia térmica.
Wang explica que como a luz do Sol também é transformada em calor, essa energia pode ser armazenada com mais facilidade que a eletricidade direta produzida por células fotovoltaicas. A energia pode ser armazenada usando meios térmicos ou químicos, isso pode ser feito com a utilização de compostos químicos como sal derretido que se liquefaz quando aquecido, e em seguida libera o calor absorvido quando volta a se solidificar.
Andrej Lenert, alundo de doutorado do MIT, aponta que “a qualquer momento em que se passa por esse processo de conversão térmica, abre-se a possibilidade de armazenar essa energia na forma de calor”. Essa capacidade permite que a energia solar armazenada na forma de calor seja convertida em eletricidade no futuro, seja à noite ou quando o Sol estiver coberto. Armazenar a eletricidade de células fotovoltaicas convencionais exige baterias, que não são práticas na escala de telhados, e que têm alto custo em escalas maiores.
Além do aumento na eficiência, Lenert acredita que o trabalho de sua equipe servirá como referência para avanços futuros na área da termofotovoltaica solar. “Acredito que os procedimentos experimentais e as metodologias que estabelecemos beneficiarão o avanço da comunidade”, declara ele.
Esse grande avanço, é claro, será superar a marca de 20% de eficiência estabelecida por células fotovoltaicas.
Wang acredita que a equipe está no caminho certo. Parte do problema, de acordo com ela, é a escala. O dispositivo que eles construíram tem o tamanho de uma unha; como a área é pequena em relação ao comprimento das extremidades, perde-se mais calor por meio da inevitável dissipação. O aumento do tamanho resultará em um aumento exponencial da área em relação ao comprimento, reduzindo a perda de calor. “Se pudermos aumentar a escala, conseguiremos superar a eficiência de 20%”, conclui ela.

Fonte: Nature Nanotechnology

sábado, 15 de fevereiro de 2014

Experimento NOvA vê os primeiros neutrinos

Cientistas do experimento NOvA anunciaram que foram captados os seus primeiros neutrinos.

aglomerado de galáxias RDCS 1252.9-2927

© ESO/P.Rosati (aglomerado de galáxias RDCS 1252.9-2927)

O experimento NOvA [NuMI (Neutrinos at the Main Injector) Off-Axis νe Appearance] é composto por dois grandes detectores de partículas situados a 500 quilômetros de distância, e seu trabalho é explorar as propriedades de um intenso feixe de partículas fantasmagóricas chamadas neutrinos. Os neutrinos são abundantes na natureza, mas eles raramente interagem com outra matéria. Estudá-los pode render informações cruciais sobre os primeiros momentos do Universo.

Diferentes tipos de neutrinos têm massas diferentes, mas os cientistas não sabem como essas massas se diferem um do outro. O objetivo do experimento NOvA é determinar a ordem das massas dos neutrinos, conhecida como a hierarquia de massa, que vai ajudar os cientistas a estreitar sua lista de possíveis teorias sobre a função dos neutrinos.
Bilhões dessas partículas são enviadas à Terra a cada dois segundos, atingindo os detectores de massa. Uma vez que a experiência é totalmente operacional, os cientistas vão identificar poucos deles a cada dia.

Os neutrinos são partículas curiosas. Elas têm três tipos, chamados de sabores, e mudam entre eles quando eles viajam. Os dois detectores do experimento NOvA estão colocados tão distantes para propiciar aos neutrinos o tempo de oscilar de um sabor para outro durante a viagem, quase à velocidade da luz.

Os cientistas geraram um feixe de partículas para o experimento NOvA usando um dos maiores aceleradores do mundo, localizado no Departamento de Energia do Fermi National Accelerator Laboratory, em Chicago. O feixe está direcionado para os dois detectores de partículas, um perto da fonte do Fermilab e o outro no rio Ash, em Minnesota, perto da fronteira com o Canadá. O detector no rio Ash é operado pela Universidade de Minnesota sob um acordo de cooperação com o Departamento de Energia.

Depois de concluído, os detectores próximos e distantes do NOvA vai pesar entre 300 e 14.000 toneladas, respectivamente.

"Os primeiros neutrinos significa que nós estamos no nosso caminho", disse o físico Gary Feldman da Universidade Harvard que participa do experimento desde o início. "Começamos a mais de 10 anos atrás a elaboração da criação desta experiência, por isso estamos ansiosos para obter resultados."

A colaboração NOvA é composta por 208 cientistas de 38 instituições nos Estados Unidos, Brasil, República Checa, Grécia, Índia, Rússia e Reino Unido. O experimento NOvA está programado para ser executado por seis anos.

Dedido o fato de os neutrinos interagirem com a matéria tão raramente, os cientistas esperam capturar apenas cerca de 5.000 neutrinos ou antineutrinos durante esse tempo. Os cientistas podem estudar o momento, a direção e a energia das partículas que interagem em seus detectores para determinar se eles vieram do Fermilab ou de outro lugar.

O Fermilab cria um feixe de neutrinos por colisão de prótons em um alvo de grafite, que libera uma variedade de partículas. São utilizados ímãs para orientar as partículas carregadas que emergem a partir da energia de colisão num feixe. Algumas dessas partículas decaem em neutrinos, e após são filtrados os não-neutrinos do feixe.

A imagem no topo mostra o aglomerado de galáxias RDCS 1252.9-2927 no Universo primordial, que se situa a cerca de 8,5 bilhões de anos-luz. Ele existia no momento em que o Universo tinha menos de 5 bilhões de anos. A imagem colorida composta do aglomerado de galáxias mostra a luz em raio X (roxo) a partir do gás com temperatura de 70 milhões de graus Celsius, e no óptico (vermelho, amarelo e verde) a luz das galáxias no aglomerado. Dados de raios X do Chandra e do XMM-Newton mostram que este aglomerado foi totalmente formado a mais de 8 bilhões de anos atrás. A massa medida de mais de 200 trilhões de sóis torna este aglomerado de galáxias o objeto de maior massa já encontrado quando o Universo era muito jovem. A abundância que os aglomerados cde galáxias apresentam são consistentes com a ideia de que a maioria dos elementos pesados ​​foram sintetizados no início da formação de estrelas de grande massa, mas as teorias atuais sugerem que um grupo tão grande deve ser raro no Universo primitivo.

Fonte: Fermi National Accelerator Laboratory

sexta-feira, 14 de fevereiro de 2014

Avanço nas pesquisas sobre fusão nuclear

Cientistas anunciaram esta semana um importante avanço na longa busca do desenvolvimento da fusão nuclear, o que para alguns representa o sonho de uma fonte de energia limpa e ilimitada.

cápsula que contém combustível para a fusão nuclear

© LLN (cápsula que contém combustível para a fusão nuclear)

Presente no Sol e em muitas outras estrelas, a fusão implica na liberação de energia por meio da união de núcleos atômicos, diferentemente da provocada pela fissão nuclear, princípio físico da bomba atômica e da energia nuclear usada atualmente nas usinas, que envolve a quebra do núcleo dos átomos.

Décadas de trabalho sobre a fusão tentaram superar um obstáculo gigantesco: a enorme quantidade de energia necessária para desencadear o processo. No entanto, experiências de laboratório, descritas atualmente por um grupo de cientistas nos Estados Unidos, permitiram fazer grandes avanços na superação desses obstáculos.

Os cientistas americanos afirmaram ter sido os primeiros a obter mais energia de uma reação de fusão do que a absorvida pelo combustível usado para provocá-la.

Eles fixaram 192 feixes de laser na direção de um ponto mais estreito do que a largura de um cabelo humano para gerar energia suficiente para comprimir uma minúscula cápsula de combustível a um tamanho 35 vezes menor que o original.

Com duração de menos de um bilionésimo de segundo, a reação liberou energia equivalente à armazenada em duas baterias AA (17 mil Joules) na última experiência realizada em novembro de 2013.

Apesar de modesta, a liberação de energia foi maior do que a energia absorvida pelo combustível, estimada entre 9 mil e 12 mil Joules.

"Isto é o mais próximo que se chegou" do sonho de gerar energia viável resultante de uma fusão, disse Omar Hurricane, chefe da equipe que realizou o estudo na estatal National Ignition Facility (NIF), da Califórnia.

A energia é dez vezes superior à alcançada anteriormente, embora haja alguns obstáculos. Não se trata de uma reação sustentada, o tão buscado momento de "ignição", e a pergunta sobre a eficiência energética, ou seja, a liberação de uma energia superior à consumida para lançar o processo, permanece sem resposta.

Neste caso, os feixes de laser liberaram 1,9 milhão de Joules de energia, o equivalente a uma pequena bateria de carro, dos quais só entre 9 mil e 12 mil Joules foram absorvidos pelo combustível.

"Só algo da ordem de 1% da energia que usamos com o laser termina no combustível, ou até menos", disse a co-autora do estudo, Debbie Callahan. "Há muito espaço para continuarmos avançando", prosseguiu.

O método precisa ser aperfeiçoado e o rendimento deve ser 100 vezes melhor "antes de que possamos chegar ao ponto de ignição", acrescentou Hurricane.

A ignição também requer auto-propagação, por meio da qual as primeiras partículas fundidas causam o calor e a pressão necessários para gerar outras, criando assim novas partículas e melhorando o rendimento.

Os últimos experimentos no NIF, um feito em setembro do ano passado e o outro em novembro, foram os primeiros a lançar provas de que as partículas deixam um pouco de energia atrás delas.

A fusão nuclear é o oposto da fissão, que apresenta como riscos a proliferação nuclear, assim como os rejeitos perigosos e duradouros.

Os núcleos de deutério e trítio, ambos isótopos obtidos a partir do hidrogênio, podem, ao contrário, se fundir para criar partículas mais pesadas.

Em teoria, a energia gerada através da fusão não resultaria em rejeitos perigosos nem contaminaria a atmosfera. Além disso, o combustível é encontrado com maior abundância: na água do mar, que cobre mais de dois terços do planeta.

O procedimento requer temperaturas extremas e pressões equivalentes às encontradas no nosso Sol e em outras estrelas ativas.

Para concretizar este objetivo, Hurricane e sua equipe dispararam seus raios laser contra um cilindro de ouro de dois milímetros de diâmetro, recoberto por dentro por uma camada congelada de combustível de deutério e trítio.

Os feixes de luz entraram através de buracos por um lado e se focaram como raios que impactaram a cobertura externa da cápsula e provocaram sua implosão, algo equivalente a reduzir uma bola de beisebol ao tamanho de uma ervilha.

O processo gera uma pressão 150 bilhões de vezes superior à exercida pela atmosfera terrestre e uma densidade de 2,5 a 3 vezes superior à do núcleo solar, disseram os cientistas. Segundo o cientista especializado Mark Herrmann, do Pulsed Power Sciences Center, de Albuquerque, trata-se de "um avanço significativo na pesquisa sobre a fusão".

Fonte: Nature

terça-feira, 4 de fevereiro de 2014

Monopolos magneticos sintéticos são gerados

Um análogo de uma partícula compreendendo um pólo magnético isolado tem sido observada por físicos nos EUA e Finlândia.

ilustração de um monopolo magnético sintético

© Heikka Valja (ilustração de um monopolo magnético sintético)

Os monopolos magnéticos foram previstos por Paul Dirac em 1931, mas nunca foram vistos na natureza. Este último trabalho não prova a existência das partículas incomuns, mas mostra que um sistema físico descrito por uma matemática subjacente pode ser criado em laboratório. A pesquisa também pode ajudar os físicos a obter uma melhor compreensão de materiais exóticos, como supercondutores, e até mesmo criar materiais com propriedades novas e úteis.
Os pólos magnéticos são sempre visto em pares, não importa quão pequeno é o ímã. Um ímã de barra comum consiste de um pólo norte e um pólo sul; se o ímã é cortado em dois, em seguida, cada uma das metades resultantes também será bipolar. Na verdade, não importa quantas vezes o ímã é dividido, os pólos norte e sul permanecem acoplados, inclusive em átomos individuais, que agem como minúsculos ímãs. Isso se reflete nas equações de Maxwell, que dizem que cargas elétricas positivas e negativas isoladas existem, mas as cargas magnéticas isoladas não ocorrem na natureza.
Isso mudou quando a mecânica quântica foi formulada no início do século 20. Paul Dirac mostrou que para ocorrer naturalmente monopolos magnéticos exigiria carga elétrica em unidades discretas. Esta singularidade é visto na natureza, mas não é totalmente compreendida, e a busca de monopolos magnéticos é um campo ativo de pesquisa.
Até agora, os físicos têm tentado criar monopolos dentro de aceleradores de partículas, mas a massa do monopolo é geralmente considerada muito alta para permitir uma observação, mesmo a do Large Hadron Collider (LHC) do CERN. Outra opção era procurar ambientes imaculados, como a Lua ou na gélida Antártida, para encontrar sinais dos monopolos que as teorias da grande unificação predizem deveria ter sido criado quando o Universo esfriou e sua simetria inicial foi quebrada. Aqui também, no entanto, os pesquisadores vêm-se de mãos vazias.
A abordagem de David Hall e seus colegas no Amherst College, em Massachusetts e colaboradores da Universidade de Aalto, na Finlândia é a produção de um análogo do que é conhecido como um "monopolo de Dirac", a forma da mecânica quântica generalizada de um monopolo magnético apresentada por Dirac. Antes de 1931, ninguém tinha sido capaz de combinar eletromagnetismo e mecânica quântica clássica para permitir a existência de monopolos magnéticos, mas Dirac foi capaz de fazer isso por considerar o que acontece quando um monopolo interage com um elétron. Ele descobriu que quando um monopolo passa por uma nuvem de elétrons - a distribuição no espaço de um único elétron , como descrito pela mecânica quântica - deixa um vórtice em seu rastro, é como o escoamento da água que flui pelo ralo.
O grupo de Hall que reproduziu um vórtice em um condensado de Bose-Einstein de átomos de rubídio ultra frios. O condensado é uma onda de matéria única e permanece na nuvem de elétrons de acordo com formulação de Dirac. Para reproduzir o monopolo, os pesquisadores aplicaram um campo magnético no condensado para orientar os átomos constituintes de tal maneira que foi criado um campo magnético "sintético"no interior do condensado. Existe uma correspondência entre esse domínio sintético e o campo que seria produzido por um monopolo magnético. "Você pode obter exatamente as mesmas linhas no campo sintético e o local do monopolo onde essas linhas de campo brotam", diz Hall.
Para mostrar que eles realmente tinham produzido um monopolo de Dirac, os pesquisadores injetou um feixe de laser através do condensado. O feixe criou uma radiografia, onde a sombra projetada pelos átomos da amostra foi perfurada por uma estreita faixa de luz. Isso foi o vórtice criado por um pólo norte isolado (sendo norte ao invés de sul simplesmente por razões técnicas). Normalmente um vórtice criado dentro de um condensado de Bose-Einstein vai de um lado do condensado para outro.

Peter Holdsworth, um físico da matéria condensada na Ecole Normale Supérieure de Lyon, elogia o trabalho como "uma aplicação requintada da nanotecnologia, átomos frios, computação de alta potência e teoria inteligente". Ele ressalta que a equipe não provou a existência de monopolos magnéticos, mas forneceu a confirmação experimental da matemática de Dirac. "É um resultado importante e poderia levar a muitos outros resultados análogo ", diz ele.

Isso vai ajudar os físicos de partículas encontrar monopolos reais? Provavelmente não, mas deverá incentivá-los a continuar a procurando.
Hall reconhece os limites do trabalho de seu grupo. "Nossos monopolos não seria registrado por uma bússola. Nós não temos sido capazes de reproduzir as propriedades como a massa da partícula em nosso experimento, mas criamos um análogo da parte magnética. Isso pode fornecer algumas dicas sobre monopolos naturais", diz ele.

Ele argumenta que seu grupo chegou mais perto de imitar supostos monopolos magnéticos naturais do que outros três grupos que relataram resultados em materiais conhecidos como spin gelados em 2009. Em trabalho anterior, as coleções em forma de tetraedros de íons que compõem spin gelados foram observados sob certas condições para a aquisição de giro líquido, de modo que se assemelha tanto ao norte isolado ou pólo sul. Hall descreve estas experiências interessantes, mas sustenta que a conexão com monopolos de Dirac era bastante fraca e o fenômeno em questão era puramente clássico, em oposição ao quântico.
Este trabalho pode ajudar os físicos a realizar simulações quânticas da matéria. Este campo de rápido crescimento tem como objetivo compreender os materiais existentes e, finalmente, criar novos, talvez até mesmo supercondutores a temperatura ambiente.

Um artigo sobre a pesquisa foi publicado na revista Nature.

Fonte: Physics World

segunda-feira, 3 de fevereiro de 2014

O mistério das bolas de fogo

Relâmpagos bola tem sido um dos fenômenos naturais mais misteriosos durante séculos, em parte porque é tão raro e transitório e, portanto, difícil de investigar.

relãmpago bola

© J. Cen, P. Yuan e S. Xue (relãmpago bola)

O raio bola é o ponto branco na extremidade esquerda, e seu espectro de forma irregular é a banda colorida. Mas uma observação fortuita durante experimentos de campo na China para estudar relâmpago comum, forneceu o que parece ser a primeira medição do espectro de emissão de raios globulares. Os dados sugerem que a bola brilhante foi composta de elementos de solo, de acordo com uma teoria popular.

Relâmpagos bola normalmente aparece durante as tempestades como um brilho, que vão desde o tamanho de uma bola de golfe a vários metros de diâmetro, que flutua no ar por entre um segundo e dezenas de segundos. Há muitos relatos históricos de tais "bolas de fogo" ferindo ou até mesmo matando pessoas e provocando incêndio em edifícios, conduzindo às explicações sobrenaturais.

As teorias científicas de relâmpagos bola abundam, com diferentes graus de plausibilidade. As bolas de plasma brilhantes foram criadas artificialmente pela passagem de micro-ondas intensas através do ar ou por descargas elétricas subaquáticas. Mas tais experiências de laboratório não podem ostentar qualquer relação com a formação de raios bola no meio ambiente, que se sabe muito pouco, uma vez que não houve quase nenhum dado sólido.

Uma teoria popular é que o raio bola é causado quando um raio atinge o solo e evapora alguns dos silicatos minerais no solo. O carbono no solo retira os silicatos de oxigênio através de reações químicas, criando um gás de átomos de silício energético. Os átomos se recombinam para formar nanopartículas ou filamentos que, embora ainda flutuando no ar, reagem com o oxigênio, liberando calor e emitindo o brilho. Se é assim, deve-se esperar para ver as linhas de emissão atômica de silício e outros elementos do solo no espectro.

Isso é o que Ping Yuan e colaboradores da Northwest Normal University em Lanzhou, na China, agora relatam. Eles haviam montado espectrômetros no remoto Planalto Qinghai, no noroeste da China para investigar relâmpago comum, que é frequente nesta região. Durante uma tempestade de fim de noite em julho de 2012, eles viram um raio bola aparecer apenas depois de um raio de cerca de 900 metros do seu aparelho e foram capazes de gravar um espectro e imagens de vídeo de alta velocidade da bola .

O brilho registrado tinha cerca de 5 metros de diâmetro, o tamanho real da bola era muito menor e ele mudou de branco para o vermelho durante o tempo que durou. Embora a escuridão impediu os pesquisadores de estimar a altitude da bola, eles viram que a bola deslocou horizontalmente por cerca de 10 metros e subiu cerca de 3 metros. Yuan diz que esta é a primeira vez que um raio bola foi visto sendo criado por um relâmpago nuvem-solo.

Os pesquisadores descobriram que o espectro continha várias linhas de emissão de silício, ferro e cálcio todos os elementos que deverão ser abundante no solo. Seria de esperar também a presença de alumínio, dada a sua abundância em minerais do solo. Mas não foi confirmado, pois não há linhas de emissão de átomos de alumínio neutro dentro da faixa espectral do instrumento (comprimentos de onda de 400 a 1.000 nanômetros). A equipe também usou seus dados de vídeo para traçar a intensidade do raio bola e diâmetro aparente à medida que varia com o tempo, até a escala de tempo de milissegundos. Os pesquisadores planejam simular as condições de observação e reproduzí-la em laboratório.

Fonte: Physical Review Letters

quarta-feira, 15 de janeiro de 2014

Capturando partículas Z em colisor

Em abril de 2013, físicos de partículas fizeram uma inesperada descoberta: uma partícula, chamada Zc(3900), que parece ser composta de quatro quarks ao invés das duas usuais ou três.

partícula Z

© APS/Alan Stonebraker (partícula Zc)

A Colaboração Beijing Spectrometer Detector (BESIII), um dos dois grupos que primeiro detectaram a Zc(3900), agora tem explorado um conjunto separado de reações que podem levar à produção desses estados de quatro quarks. Conforme relatado na Physical Review Letters, eles encontram fortes assinaturas de uma partícula, mas sua massa não é exatamente a da partícula Zc(3900). Independentemente da sua verdadeira identidade, a entidade detectada pode dar um melhor entendimento de como os quatro quarks podem se unir nestas partículas incomuns.

A prova original para a partícula Zc(3900) vem de colisões elétron- pósitron. Com energia de 4,26 GeV (giga-elétron-volts), essas colisões podem produzir uma partícula chamada Y(4260), que decai depois de algum tempo em um méson J/Ψ e dois pions. Nessas cadeias de desintegração, os físicos descobriram evidências de uma outra partícula, a Zc(3900), com uma massa de 3,9 GeV/c2.

Ainda não está claro se a Zc(3900) é uma partícula com quatro quarks ou uma "molécula ", composta de dois estados e dois quarks .

À procura de uma nova visão sobre este problema, o experimento BESIII no Beijing Electron Positron Collider analisou uma rota diferente do decaimento da Y(4260), o que resulta em um par de mésons D e um pion. Os dados mostraram um pico numa energia específica, o que implica na criação de uma partícula com uma massa de 3,885 GeV/c2. A discrepância em massa com a Zc(3900) é pequena, mas a significância observada é 2 sigma, de modo que os pesquisadores se absteram de identificar a sua partícula com semo a Zc(3900). No entanto, eles mediram o momento total angular e paridade de sua partícula, o que poderia ajudar a discriminar esta partícula de outras potenciais partículas de quatro quarks na mesma faixa de massa.

Fonte: Physical Review Letters

domingo, 12 de janeiro de 2014

Turbulência ao redor de um buraco negro

Pesquisadores utilizaram uma relação entre a relatividade geral e hidrodinâmica, a chamada correspondência gravidade-fluido, para estudar como os buracos negros podem se comportar quando perturbado, por exemplo, por uma colisão com outro objeto.

ilustração da turbulência em buraco negro

© S. R. Green (ilustração da turbulência em buraco negro)

Os efeitos da turbulência pode provocar certas vibrações ao longo do espaço-tempo do buraco negro e exibir um comportamento qualitativamente diferente do que o esperado.

A correspondência gravidade-fluido é baseada na constatação de que, em certas circunstâncias, as equações da relatividade geral de Einstein se assemelham as equações de Navier-Stokes para dinâmica de fluidos. Normalmente, altera-se parâmetros da gravidade a fim de obter informações sobre algum problema difícil do lado do fluido. Por exemplo, o trabalho recente tem tentado descrever o movimento turbulento de partículas de fluido, mapeando-o para uma geometria do espaço-tempo curvo.

O físico Stephen Green, da Universidade de Guelph, no Canadá, e seus colegas investigaram a correspondência da gravidade-fluido de outra maneira, tentando entender perturbações no buraco negro através de um estudo de turbulência de fluidos, através do número de Reynolds. Eles consideraram um fluido bidimensional, cujas oscilações de velocidade correspondem às vibrações na superfície do buraco negro. A viscosidade do fluido caracteriza a perda de energia para o buraco negro, o que faz com que as perturbações decaiam. Ao contrário de trabalhos anteriores, a equipe analisou as consequências a longo prazo da turbulência na gravidade e descobriu que, em certos casos, um buraco negro pode desenvolver turbulências, tais como vórtices giratórios de ondas gravitacionais.

Esta turbulência no buraco negro prolonga a perturbação, onde os modos de longo comprimento de onda tem decaimento mais lento, fazendo com que esta transferência de energia prolongue a vida útil total da perturbação. Os trabalhos em curso podem nos dizer se a turbulência no buraco negro é observável através, por exemplo, variações nas linhas de emissão de acreção de gás.

Fonte: Physical Review X

sexta-feira, 10 de janeiro de 2014

Gás em degenerescência profunda

O estudo de sistemas quânticos é fascinante, onde os sistemas de partículas que têm diferentes interações microscópicas ainda têm o mesmo comportamento macroscópico.

gás de férmions em degenerescência profunda

© K. Aikawa (gás de férmions em degenerescência profunda)

O físico Kiyotaka Aikawa e colegas da Universidade de Innsbruck, na Áustria, são os primeiros a esfriar um gás de férmions idênticos que apresentam dipolo dispersão universal, neste caso 60.000 átomos de érbio-167 (167Er), a uma fração da temperatura de Fermi. Este sistema de átomos frios poderia ajudar os físicos a entender melhor o comportamento de outros gases dipolares, tais como moléculas frias e, possivelmente, os sistemas de física nuclear.

A imagem mostra a esquerada férmions degenerados com T/Tf = 0,71 e a direita férmions degenerados com T/Tf = 0,47.

O princípio de exclusão de Pauli impede que dois férmions idênticos ocupem o mesmo nível de energia. Como resultado, em temperatura zero, átomos fermiônicos como o 167Er ocuparão uma escada de estados quânticos até a energia de Fermi. Mas a natureza anti-simétrica da função de onda fermiônica impede que átomos idênticos com interações de curto alcance de colidir em baixas temperaturas. Sem colisões para termalização do sistema, o resfriamento evaporativo, uma técnica padrão para o arrefecimento de gases atômicos, torna-se ineficaz.

Os pesquisadores Universidade de Innsbruck contornaram este impasse usando as interações dipolo-dipolo de longo alcance de átomos 167Er altamente magnéticos para resfriamento evaporativo do gás com 0,2 vezes a temperatura de Fermi. Os pesquisadores foram capazes de ver o aparecimento do estado quântico degenerado pela imagem dos momentos dos átomos, e mostrando que eles seguiram uma distribuição de Fermi-Dirac. O grupo também demonstra a natureza universal da seção transversal de espalhamento deste gás. Especificamente, foi mostrado que a taxa de espalhamento entre átomos depende apenas de um único parâmetro chamado comprimento de dipolo, que é proporcional ao produto da massa do átomo e ao quadrado do seu momento de dipolo.

Fonte: Physical Review Letters