sábado, 29 de outubro de 2011

Rumo a estrela artificial controlada

Usando 60 raios lasers de alta potência, combinados para atingir uma cápsula minúscula, físicos produziram um plasma com condições de densidade de energia extremas.

© LLNL (Omega Laser)

Essas condições incluem uma pressão de 100 bilhões de atmosferas, uma temperatura de 200 milhões Kelvin e uma densidade 20 vezes maior que a do ouro.

Antes desse super disparo de laser, essas condições só podiam ser encontradas no núcleo de planetas gigantes, como Júpiter e Saturno, ou no interior das estrelas.

O experimento é um dos caminhos rumo à construção de uma "estrela artificial" controlada, onde a fusão nuclear poderá ser explorada para a geração sustentável de energia.

Muitos físicos acreditam que a fusão nuclear a laser seja a melhor saída para essa fonte de energia limpa.

O laboratório Omega Laser Facility, localizado na Universidade de Rochester, nos Estados Unidos, onde o recorde acaba de ser batido, é um dos que trabalham nesse sentido.

Os pesquisadores normalmente usam aceleradores para estudar as reações nucleares.

Neste laboratório, a equipe usou uma abordagem diferente, criando um plasma quente e denso, no qual elétrons são arrancados dos átomos para criar um plasma, o quarto estado da matéria.

O estado de plasma está presente nas estrelas, nos relâmpagos e até nas lâmpadas fluorescentes, na verdade 99% do Universo visível é composto de plasma.

Para obter esse plasma, todos os 60 feixes de laser do Laboratório Ômega foram dirigidos simultaneamente para a superfície de uma cápsula de vidro de um milímetro de diâmetro, cheia de isótopos pesados de hidrogênio - deutério e trítio.

laser sobre uma esfera de vidro com deutério e trítio

© LLNL (laser sobre uma esfera de vidro com deutério e trítio)

Os feixes de laser geram um plasma em rápida expansão, de alta temperatura, na superfície da cápsula, fazendo-a implodir.

Esta implosão, por sua vez, cria um plasma extremamente quente (100 milhões Kelvin) de íons de deutério e trítio, e de elétrons, dentro da cápsula.

Uma pequena fração dos íons de deutério e trítio se fundem, um processo que gera um nêutron viajando a um sexto da velocidade da luz, com cerca de 14,1 milhões de elétron-volts de energia - em comparação, a combustão de uma substância química comum, como a madeira ou o carvão, gera cerca de 1 elétron-volt de energia.

Conforme esses nêutrons energizados escapam da cápsula que está implodindo, uma pequena fração colide com os íons de deutério e trítio.

A partir dessas colisões, bastante raras, e da correspondente transferência de energia dos nêutrons para os íons, os pesquisadores podem obter uma medição precisa do processo de fusão nuclear.

Fonte: Physical Review Letters

Os buracos Kondo na supercondutividade

Pesquisadores usaram um composto de urânio, rutênio e silício (URu2Si2), que é conhecido como um "sistema de férmions pesados"  para obter efeitos sobre a supercondutividade, a capacidade de alguns materiais de transportar correntes elétricas sem resistência.

efeitos dos buracos Kondo na supercondutividade

© Davis Group (efeitos dos buracos Kondo na supercondutividade)

Os resultados revelaram como a substituição de apenas alguns átomos pode causar perturbações generalizadas das delicadas interações que dão ao material suas propriedades únicas, incluindo a supercondutividade.

É um sistema onde os elétrons que trafegam através do material param periodicamente para interagir com os elétrons localizados nos átomos de urânio que compõem a estrutura do cristal.

Essas interações magnéticas desaceleram os elétrons, fazendo com que pareça que eles têm uma massa extra, mas também contribui para a supercondutividade do material.

Em 2010, Séamus Davis, físico do Laboratório Nacional Brookhaven, dos Estados Unidos, e um grupo de colaboradores visualizaram esses férmions pesados pela primeira vez, usando a técnica de obtenção de imagens espectroscópicas por microscopia de tunelamento (STM-SI), que mede o comprimento de onda dos elétrons do material em relação à sua energia.

A ideia deste novo estudo foi "destruir" o sistema de férmions pesados, substituindo o tório por alguns dos átomos de urânio. O tório, ao contrário do urânio, não é magnético, portanto, em teoria, os elétrons deveriam ser capazes de se mover livremente ao redor dos átomos de tório, em vez de parar para os breves encontros magnéticos que têm com cada átomo de urânio.

Estas áreas onde os elétrons deveriam fluir livremente são conhecidas como "buracos Kondo", uma homenagem ao físico Jun Kondō que descreveu o espalhamento dos elétrons condutores devido as impurezas magnéticas.

Os elétrons fluindo livremente podem auxiliar na corrente elétrica sem resistência, mas os buracos Kondo acabam se tornando bastante destrutivos para a supercondutividade.

Trabalhando com amostras de tório dopado, feitas pelo físico Graeme Luke, na Universidade McMaster, a equipe de Davis usou sua ferramenta STM-SI para visualizar o comportamento dos elétrons.

Foram identificados inicialmente os locais dos átomos de tório na rede, e consequentemente as funções de onda da mecânica quântica dos elétrons em torno desses locais.

As medições confirmaram várias das previsões teóricas, incluindo a ideia proposta no ano passado pelo físico Dirk Morr, da Universidade de Illinois, de que as ondas de elétrons iriam oscilar descontroladamente ao redor dos buracos Kondo.

Assim, destruindo os férmions pesados, que devem emparelhar-se para o material agir como um supercondutor, os buracos Kondo interrompem a supercondutividade do material.

A técnica de visualização também revelou como apenas alguns poucos buracos Kondo podem provocar uma destruição generalizada.

O que os cientistas descobriram ao estudar esse exótico sistema de férmions pesados pode também valer para o mecanismo de outros supercondutores que operam em temperaturas mais altas.

Fonte: Proceedings of the National Academy of Sciences

sábado, 22 de outubro de 2011

Usando o Sol para testar teorias alternativas

Um grupo de físicos portugueses está propondo que o Sol seja usado para testar algumas teorias alternativas à Teoria da Relatividade Geral de Einstein.

Sol

© NASA/SOHO (Sol)

Jordi Casanellas e seus colegas da Universidade Técnica de Lisboa afirmam que uma teoria proposta há mais de um século por Arthur Eddington não foi totalmente descartada pelas observações recentes dos neutrinos solares e das ondas acústicas solares.

E, segundo eles, uma variante da teoria de Eddington pode ajudar a resolver algumas das deficiências das teorias atuais.

A Teoria da Relatividade Geral, que descreve a gravidade como a curvatura do espaço-tempo por corpos celestes de grande massa, tem passado por todos os testes aos quais tem sido submetida ao longo dos anos. Mas existem problemas para serem resolvidos.

Além da bem conhecida dificuldade de unificação com a mecânica quântica e das ainda pendentes explicações para a matéria e a energia escuras, há o problema bem mais sério das singularidades, onde as leis da física simplesmente se esfacelam.

Em 2010, Máximo Bañados (Universidade Católica do Chile) e Pedro Ferreira (Universidade de Oxford) propuseram uma variante da teoria de Eddington que adiciona um termo gravitacional repulsivo para a teoria da relatividade.

Mas o que parece ser a simples adição de mais um membro a uma equação tem um efeito devastador sobre o entendimento mais geral do cosmo.

Esse termo gravitacional repulsivo não apenas elimina a necessidade das singularidades, ele descarta a formação dos buracos negros e a ideia de que o Universo teria surgido de um Big Bang.

Quando tenta interpretar um campo gravitacional em um vácuo, essa teoria inspirada em Eddington é equivalente à Teoria da Relatividade. Mas ela prevê efeitos diferentes para a gravidade agindo no interior da matéria.

O lugar ideal para testar essas diferenças seria o interior de estrelas de nêutrons. Embora se acredite que estrelas de nêutrons possam ativar o vácuo quântico, não se sabe o suficiente a respeito delas para comparar as duas teorias. Por exemplo, recentemente foi encontrada uma estrela de nêutrons cuja existência parecia ser impossível.

O Sol é uma fonte de gravidade muito menos extrema do que uma estrela de nêutrons, porém o funcionamento do seu interior já é razoavelmente bem descrito pelos modelos solares.

O grupo de Casanellas calculou que, mesmo em sua forma newtoniana, não-relativística, a teoria derivada de Eddington prevê diferenças quantificáveis nas emissões solares em comparação com a teoria gravitacional padrão, desenvolvida por Einstein.

O termo gravitacional repulsivo na teoria de Bañados e Ferreira seria equivalente a dar um valor diferente para a constante gravitacional no interior da matéria.

E intensidades diferentes da gravidade no interior do Sol devem resultar em diferenças em sua temperatura interna, uma vez que se assume que o Sol está em equilíbrio hidrostático, ou seja, a pressão para dentro de sua massa é equilibrada pela pressão para fora gerada pelas reações de fusão nuclear em seu interior.

Uma temperatura mais elevada implica uma maior taxa de fusão nuclear, implicando em uma maior taxa de emissão de neutrinos solares, algo diretamente mensurável.

Uma força da gravidade maior no interior do Sol propicia numa variação na sua distribuição de densidade, o que deve modificar a propagação das ondas acústicas em seu interior, podendo ser medida com as técnicas da heliossismologia.

Todos esses dados já estão disponíveis. Contudo, eles colocam sérias restrições à nova teoria, impondo limites muito estreitos para seus valores.

Um teste mais rigoroso exigiria melhorias nos modelos solares, incluindo a abundância de hélio na superfície do Sol, ou medições mais precisas dos fluxos de neutrinos.

Paolo Pani, um dos membros da equipe, sugere um teste alternativo, aqui na Terra mesmo.

Para ele, tanto a teoria derivada de Eddington, quanto outras teorias alternativas da gravidade, poderiam ser testadas medindo a atração gravitacional entre uma esfera de metal inserida em um buraco no solo e a massa da Terra ao seu redor.

A ideia é fazer um buraco onde coubesse apenas a esfera, e nada mais, com uma precisão gigantesca, de forma que a medição mostrasse apenas a intensidade da gravidade no interior da matéria, e não no vazio ao seu redor.

Entretanto, tal experimento apresenta desafios consideráveis.

Fonte: Physics World

sábado, 8 de outubro de 2011

A pura luz do laser de raios X

Pesquisadores analisaram os primeiros resultados do LCLS (Linac Coherent Light Source), uma fonte de laser de raios X recém-inaugurada na Universidade de Stanford, nos Estados Unidos.
estação de espalhamento de raios X ressonante
© SLAC (estação de espalhamento de raios X ressonante)
Na medida da coerência do laser, que é o grau em que as ondas de luz são sincronizadas, descobriu-se que o LCLS produz a mais coerente radiação de raios X já medida.
Com um feixe de tão alta qualidade, a máquina é capaz de determinar a estrutura atômica de materiais com um nível de precisão sem precedentes.
Isto será útil em campos tão diversos quanto a descoberta de novos medicamentos, a engenharia de materiais e até a arqueologia.
Desde a invenção do maser, em 1957 - o antecessor de micro-ondas do raio laser de luz visível - cientistas têm desenvolvido lasers com comprimentos de onda cada vez mais curtos, aplicando-os a uma crescente variedade de propósitos.
Mas fazer lasers com comprimentos de onda muito curtos é um desafio. Para que uma fonte de luz seja um laser, a maioria dos seus fótons deve ser coerente, e eles devem oscilar em sincronia.
Uma alta coerência significa que a luz vai difratar mais precisamente, o que, para um feixe de raios X, significa imagens mais nítidas da estrutura atômica que está sendo estudada.
Feixes de laser também têm vários modos de oscilação, assim como instrumentos de cordas e tambores, e o feixe ideal tem todos os seus fótons contribuindo para um único modo.
detector Linac Coherent Light Source
© SLAC (detector Linac Coherent Light Source)
Quando o LCLS começou a operar, a evidência para uma luz verdadeiramente laser foi a presença de pulsos de raios X brilhantes, monocromáticos e altamente focados.
No entanto, até agora, as estimativas da coerência da luz eram baseadas unicamente em simulações.
Agora, os cientistas mediram na prática um tempo de coerência de 0,55 femtossegundo, o que significa que o pulso tem efetivamente a mesma cor e intensidade durante esse intervalo de tempo, equivalente a uma distância de cerca de 150 nanômetros ao longo da direção do feixe.
Assim, uma amostra de 150 nanômetros de profundidade pode ser iluminada com luz coerente de uma única vez, gerando uma fotografia da amostra com um grande campo de visão, da largura de milhares de átomos.
Ter este nível de coerência significa que a maioria dos fótons está confinada a um único modo espacial.
Cerca de 78% dos fótons do laser de raios X estavam no modo dominante, em comparação com menos de 1% em uma fonte de luz síncrotron de raios X típica.
Um artigo sobre a pesquisa foi publicado na revista Physical Review Letters.
Fonte: SLAC National Accelerator Laboratory

quinta-feira, 6 de outubro de 2011

Resfriamento luminoso

Um grupo internacional de pesquisadores, com participação brasileira, conseguiu pela primeira vez, utilizando um laser, resfriar um nano-objeto mecânico até o seu estado de mais baixa energia possível, a chamada energia de ponto zero.
resfriamento a laser
© Nature (resfriamento a laser)
De acordo com os autores, ao empregar a luz para colocar um sistema mecânico sólido no estado de energia de ponto zero - e no qual ele se comporta de acordo com as leis da mecânica quântica - o estudo abre caminho para o desenvolvimento de detectores de massa e força extremamente sensíveis, além de abrir perspectivas para a realização de experimentos quânticos em sistemas macroscópicos.
O trabalho foi realizado por pesquisadores do Instituto de Tecnologia da Califórnia (Caltech), dos Estados Unidos, em colaboração com uma equipe da Universidade de Viena, na Áustria.
Um dos autores é o brasileiro Thiago Alegre, atualmente professor do Departamento de Física Aplicada da Universidade Estadual de Campinas (Unicamp). Nos últimos três anos, Alegre esteve no Caltech como pós-doutorando, depois de concluir o doutorado na Unicamp, com bolsa da FAPESP.
Com o uso de um laser, o grupo resfriou a microcavidade de um nano-objeto até seu estado de energia de ponto zero. O feito só havia sido alcançado anteriormente em sistemas de armadilhas ópticas contendo poucos átomos.
"Usamos um recurso óptico, o laser, para resfriar um sistema mecânico sólido ao estado de mais baixa energia possível. Isso só havia sido feito com poucos átomos ou íons, mas conseguimos fazê-lo com um sistema composto por bilhões de átomos. O estudo abre caminho para realizar experimentos quânticos em sistemas macroscópicos, o que é um sonho dos cientistas há quase uma década", disse Alegre.
Para o experimento, os cientistas projetaram e fabricaram uma cavidade óptica nanométrica, composta de uma pequena viga feita de silício, na qual buracos da ordem de 200 nanômetros são cuidadosamente posicionados. A estrutura tem dimensões de cerca de 560 nanômetros de largura e 15 mícrons de comprimento. O mícron e o nanômetro são, respectivamente, a milionésima e a bilionésima parte do metro.
"Essa geometria forma uma cavidade óptica onde apenas uma frequência - ou cor - de um laser pode ser confinada. O sistema tem a capacidade de servir como oscilador mecânico, podendo também aprisionar fônons - as partículas associadas com oscilações mecânicas, assim como os fótons estão associados com as oscilações eletromagnéticas, ou luz", explicou.
Por confinar em um mesmo local fótons e fônons, a pequena estrutura intensifica a interação entre vibrações mecânicas e luz. "Trata-se de um sistema optomecânico. A luz que atravessa essa cavidade, carregando informação sobre a amplitude de oscilação do sistema, ou número de fônons, pode ser associada à temperatura desse modo de oscilação", disse Alegre.
Ao escolher cuidadosamente a frequência do laser de excitação, os pesquisadores conseguem extrair energia mecânica por meio da luz que sai da cavidade, resfriando o sistema, segundo o cientista. Com isso, criam uma interface eficiente entre um sistema óptico e um sistema mecânico onde a informação pode fluir de um para outro.
Estabelecer o "diálogo" entre o mundo mecânico e o mundo óptico tem desdobramentos científicos importantes, segundo Alegre. Em outro estudo também publicado na Nature, no início de 2011, o mesmo grupo demonstrou os efeitos do modo mecânico sobre a luz, interação que possibilita em tese a criação de memórias ópticas.
"Já no trabalho que acaba de ser publicado, demonstramos o efeito da parte óptica sobre a parte mecânica. Demonstrando a interação pelos dois lados, abrimos a possibilidade de conseguir um controle muito maior sobre ela", afirmou Alegre.
Um dos recursos utilizados por cientistas para estudar efeitos quânticos em escala macroscópica tem sido os experimentos que utilizam a condensação de Bose-Einstein - uma fase da matéria formada por átomos em temperaturas próximas do zero absoluto.
Mas, segundo Alegre, para se trabalhar dessa maneira, o primeiro passo é levar o sistema ao estado fundamental, isto é, baixar sua temperatura global até poucas dezenas de milikelvins.
"Para chegar ao estado fundamental é preciso trabalhar com as temperaturas próximas de zero kelvin, o que é bastante complexo e caro. No nosso experimento, não baixamos a temperatura global do sistema. Trabalhamos com uma temperatura de cerca de 20 kelvin. Em vez de baixar toda a temperatura do sistema, criamos um caminho óptico para que apenas o modo vibracional chegasse próximo de zero kelvin", explicou.
Segundo Alegre, os cientistas criaram um caminho de fuga para os fônons através da luz. "Aprisionada na cavidade óptica, a luz tenta mudar de cor toda vez que a cavidade se move, absorvendo energia mecânica do sistema, que é assim resfriado", disse.
Fonte: Nature e FAPESP

terça-feira, 4 de outubro de 2011

Qual será o destino final do Universo?

Os americanos Saul Perlmutter, Brian P. Schmidt e Adam G. Riess são os ganhadores do Prêmio Nobel de Física 2011 por seus trabalhos sobre a expansão acelerada do Universo, informou nesta terça-feira a Real Academia de Ciências da Suécia.
8x10.ai
© NASA/ESA (SN 1604 - supernova de Kepler)
Saul Perlmutter, nascido em 1959 nos Estados Unidos,  é astrofísico no Laboratório Nacional Lawrence Berkeley e coordena o Projeto Cosmológico Supernova, na Universidade da Califórnia. Foi eleito membro da Associação Americana para o Avanço da Ciência.
Brian P. Schmidt , nascido também nos Estados Unidos em 1967 e com nacionalidade australiana, é astrofísico do observatório Mount Stromlo da Universidade Nacional da Austrália.
Adam G. Riess, nascido em Washington em 1969, é astrofísico no Instituto Científico de Telescópios Espaciais da Universidade John Hopkins. Foi nomeado membro da Academia Nacional das Ciências dos Estados Unidos.
Saul Permutter, Adam Riess e Brian Schmidt
© AFP (Saul Permutter, Adam Riess e Brian Schmidt)
O prêmio de 10 milhões de coroas suecas, (cerca de R$ 2,8 milhões), será dividido em duas partes. Uma para Perlmutter e, a outra, entre Schmidt e Riess.
O Supernova Cosmology Project, da Universidade de Berkeley, e o High-z Supernova Search Team, da Universidade Nacional da Austrália, estavam mapeando o Universo em busca de suas supernovas (um tipo específico de estrelas no fim de sua vida) mais distantes, para tentar demonstrar que a expansão do Universo estava se desacelerando.
As observações feitas em 1998 por estes astrônomos, associados em duas equipes diferentes, sobre a explosão de supernovas e a análise da luz emitida nessas situações permitiu demonstrar que o Universo cresce de forma acelerada e não cada vez mais devagar, como se achava.
A descoberta da expansão acelerada do Universo foi possível através da observação de um tipo muito especial de supernova: a supernova Ia.
Trata-se da explosão de uma estrela muito antiga e compacta, tão pesada quanto o Sol, mas de tamanho relativamente pequeno, como o da Terra. Uma única supernova pode emitir, durante algumas semanas, tanta luz quanto uma galáxia inteira.
Os dois times de pesquisa descobriram mais de 50 dessas supernova e detectaram que a luz delas era mais fraca do que o esperado, um sinal de que a expansão do Universo estava acelerando.
Embora os resultados contrariassem todas as previsões, ambos os grupos chegaram às mesmas conclusões sobre a aceleração.
Acredita-se que o fenômeno seja causado pela energia escura, que compõe cerca de 70% do Universo e sobre a qual ainda quase não se sabe nada.
As pesquisas realizadas também mostram como as equações da teoria da relatividade geral, desenvolvida em 1915 pelo físico alemão Albert Einstein, estão corretas.
A constante cosmológica foi um recurso usado por Einstein para tentar equacionar a expansão do Universo com apenas a matéria visível disponível.
Antes de morrer, em 1953, Einstein reconheceu a constante cosmológica como um erro. Ele também admitiu que o Universo, de fato, estava se expandindo.
Agora, a constante cosmológica é utilizada para provar o aumento do Universo. Diferente da ideia inicial de Einstein, mas salvando um conceito que era tido como errado há mais de meio século.
No entanto, a descoberta de que essa expansão está se acelerando é espantosa. Se ela continuar acelerando, o Universo  vai acabar em gelo!
Fonte: The Royal Swedish Academy of Sciences

domingo, 2 de outubro de 2011

O Tevatron parou de acelerar partículas

O maior acelerador de partículas dos Estados Unidos, o Tevatron, localizado no estado de Illinois, encerrou suas atividades no dia 30 de setembro de 2011 depois de 25 anos recriando as condições do Big Bang.

Tevatron

© Fermilab (Tevatron)

O Tevatron ficou obsoleto após o aparecimento do Grande Colisor de Hádrons (LHC), um acelerador de partículas mais poderoso, o maior do mundo, construído na fronteira franco-suíça, pelo Centro Europeu de Pequisa Nuclear (CERN), um consórcio de 20 países.
Por causa da crise econômica, dificilmente os Estados Unidos, que já dominaram a área e colheram os louros de descobertas e inovações tecnológicas, serão capazes de reunir os recursos necessários para construir um substituto mais moderno para o Tevatron.
Por isso, físicos americanos se concentrarão em questões internas mais específicas e menos caras. Também trabalharão em conjunto com o CERN em projetos de alta energia, como a busca pelo Bóson de Higgs, batizada de "partícula de Deus".

Os cientistas do Fermilab dizem não poder prever o que os EUA perderão cedendo o domínio da física de alta energia para a Europa. Já os ganhos obtidos com o Tevatron são muito mais fáceis de quantificar. O Tevatron deu contribuições fenomenais para a Física de partículas, cuja principal descoberta foi o quark top em 1995.
Além de aprofundar nosso conhecimento sobre os mistérios fundamentais do Universo, o Tevatron também levou a uma série de avanços concretos. Entre eles está o uso generalizado da geração de imagens por ressonância magnética (MRI) para diagnósticos médicos. Os supercondutores utilizados nos magnetos das máquinas de MRI eram raros e caros demais até que o Fermilab criou uma indústria com o Tevatron, gerando uma demanda de fios de supercondução suficientes para dar a volta na Terra 2,3 vezes.
Atualmente, os cientistas estão construindo uma câmera de energia escura, que será capaz de varrer a galáxia mais rápido do que qualquer outro telescópio. Sua função será descobrir porque a expansão do Universo acelera ao invés de recuar. Eles também trabalham na construção do feixe de neutrinos mais poderoso do mundo, que ajudará a explicar porque o Universo tem mais matéria do que antimatéria e aprofundar nosso conhecimento sobre suas partículas mais abundantes.

cavidades para acelerar partículas de alta intensidade

© Fermilab (cavidades para acelerar partículas de alta intensidade)

Além disso, existe o projeto do acelerador de neutrinos mais intenso do mundo, batizado Projeto X, tornando a melhor máquina para experimentos na fronteira de alta energia.

O feixe de partículas produzira káon, múon, além de neutrinos que tentariam desvendar questões importantes do século 21 na Física: O que aconteceu com a antimatéria? Como unificar todas as forças? Como o Universo surgiu?

Fonte: Fermilab e Veja

sexta-feira, 23 de setembro de 2011

Neutrinos podem superar a velocidade da luz

Os neutrinos podem alcançar uma velocidade superior à da luz, segundo os primeiros resultados divulgados pelo experimento OPERA (Oscillation Project with Emulsion-tRacking Apparatus), após testes realizados no laboratório de física CERN.
neutrinos mais rápidos que a luz
© Revista Física (neutrinos mais velozes que a luz)
A informação foi dada pelo Centro Francês de Pesquisas Científicas (CNRS), a experiência lançou neutrinos desde as instalações do CERN, em Genebra, em direção ao laboratório italiano Gran Sasso a 730 km de distância.
Os neutrinos chegaram a seu destino, em Gran Sasso, 60 nanosegundos mais rápidos que a luz, que cobre essa distância em 2,4 milisegundos. E isso só pode ser possível se eles estiverem viajando a uma velocidade maior do que 299.792.458 metros por segundo, que é a velocidade exata da luz.
Para checar seus resultados, os cientistas usaram relógios atômicos e avançados sistemas de GPS, conseguindo com isso reduzir a incerteza da distância percorrida pelos neutrinos para 20 centímetros - em relação aos 730 km do feixe.
O tempo de chegada dos neutrinos foi medido com uma incerteza de 10 nanossegundos. Os resultados se baseiam na observação de mais de 15 mil neutrinos.
Até agora, a velocidade da luz foi considerada um limite intransponível, e esta nova experiência pode abrir perspectivas teóricas completamente novas.
A experiência foi iniciada em 2006 para estudar as transformações raras (oscilações) dos neutrinos muônicos em neutrinos tauônicos, uma das quais pôde ser observada em 2010, comprovando a capacidade única do programa para detectar esses sinais.
Novas medições são necessárias para confirmar ou refutar este experimento. Creio que a teoria da relatividade não será abalada, mas se o resultado for confirmado provocará uma extensão desta teoria.
Fonte: CNRS

terça-feira, 20 de setembro de 2011

Energia gerada por fusão nuclear a laser

O sonho de dominar a energia das estrelas continua prosperando.
laser implode a esfera contendo hidrogênio pesado
© LLNL/NIF (laser implode a esfera contendo hidrogênio pesado)
A fusão a laser é uma tecnologia diferente da chamada "fusão magneticamente induzida", usada no ITER e em outros experimentos.
Esta tecnologia está sendo usada no projeto Hiper, que pretende iniciar a fusão nuclear usando um equipamento de raio laser, e no projeto JET (Joint European Torus).
Agora, pelo menos três parceiros de peso acabam de anunciar um esforço conjunto para tentar domar a fusão nuclear a laser.
A equipe será formada pelo Laboratório Nacional Lawrence Livermore (EUA), Laboratório Rutherford Appleton (Grã-Bretanha) e pela empresa privada AWE.
Em altas temperaturas e pressões, os núcleos dos isótopos pesados de hidrogênio - deutério e trítio - formam um plasma, podendo ser fundidos para formar hélio, liberando energia e um nêutron.
Disparando feixes sincronizados de laser pulsado é possível vaporizar a superfície de uma esfera cheia desses isótopos, forçando a esfera a implodir, produzindo assim as condições de fusão em seu interior durante alguns bilionésimos de segundo.
O efeito físico se assemelha à detonação de uma bomba termonuclear (bomba de hidrogênio), embora em uma escala muito menor.
Os reatores de fusão magnética disparam um poderoso pulso elétrico sobre o hidrogênio pesado para produzir um plasma. Um forte campo magnético é então usado para confinar o plasma, antes que a fusão possa ocorrer. Isso não é fácil, porque o plasma pode tornar-se instável e mesmo vazar.
Por outro lado, a fusão a laser produz temperaturas e pressões muito mais elevadas, de modo que a fusão ocorre mais rápido - com isto, o plasma precisa ser confinado por apenas alguns bilionésimos de segundo, o que é muito mais simples.
A fusão nuclear de qualquer um dos dois tipos é atraente como fonte de energia porque seu combustível é mais abundante, e o processo não produz os isótopos altamente radioativos gerados pela divisão de átomos de urânio.
Mas os nêutrons da fusão são perigosos e tornarão radioativos os materiais usados no interior do reator - estima-se que as placas internas de um reator tokamak precisarão ser constantemente trocadas.
O trítio no combustível também é radioativo: ele emite partículas beta, mas tem a vantagem de ter uma meia-vida de apenas 12,5 anos.
A fusão a laser vem sendo estudada desde a década de 1960, com fins bélicos.
Hoje, o maior laser de fusão é o NIF (National Ignition Facility) em Livermore, que é um dos participantes do acordo agora anunciado.
Até o final do próximo ano, o laboratório espera atingir a "ignição", produzindo mais energia a partir da fusão nuclear do que é necessário para gerar o pulso de laser.
Enquanto isso, não se espera que o ITER - que usa a fusão magnética - atinja a ignição antes de 2020.
Lasers menores estão sendo usados em programas de fusão no Rutherford Appleton (outro parceiro do novo acordo), na Universidade de Rochester (EUA) e na Universidade de Osaka (Japão).
A França está construindo um sistema do mesmo porte do NIF chamado Laser Megajoule.
Mike Dunne, do Laboratório Lawrence Livermore, diz que, se tudo correr bem, uma usina de fusão de 440 megawatts poderá ser instalada em uma década. Projetos futuros, maiores, poderiam atingir até 1 GW (1.000.000.000 W).
Mas é bom não confiar muito nessas previsões. Tudo é novo na área, e os físicos e os engenheiros nem mesmo sabem os problemas que terão pela frente.
Como esta aplicação é nova na área, muitos problemas surgirão. Portanto, ainda não há previsão consistente dos resultados.
Fonte: New Scientist

sexta-feira, 16 de setembro de 2011

Sonho de Einstein vira realidade

Uma equipe de pesquisadores europeus conseguiu pela primeira vez estabilizar um estado quântico de forma constante.
emissões de fótons
© CNRS (emissões de fótons)
Este foi um sonho várias vezes manifestado por Albert Einstein, que afirmava que se contentaria em observar um fóton preso por um segundo - Einstein não se dava muito bem com as predições pouco usuais da mecânica quântica, que ele nunca aceitou por completo.
Clément Sayrin e seus colegas do Laboratório Kastler Brossel, na França, fizeram bem mais do que isso: eles mantiveram um número constante de fótons aprisionados dentro de uma cavidade de micro-ondas "de forma permanente".
Essa caixa de fótons é uma cavidade de ressonância formada por dois espelhos supercondutores, onde os fótons ficam presos de forma contínua, sem precisar que eles sejam continuamente transferidos de uma armadilha para outra.
Normalmente um fóton, a unidade básica da luz, somente pode ser observado quando ele desaparece.
Por exemplo, quando atinge as células fotorreceptoras do nosso olho, o fóton deixa de existir e sua "informação" é traduzida na forma de um impulso elétrico que nos dá consciência de sua finada existência.
Seu aprisionamento ou estabilização permite que eles sejam estudados de forma direta, eventualmente sem serem afetados, algo que passou a ser cogitado há pouco tempo com a chamada "medição fraca".
Fótons e outras partículas subatômicas obedecem às regras da mecânica quântica, um tanto esquisita em relação à mecânica clássica. Mas deve haver uma fronteira entre as duas, um momento de transição onde as duas atuam de uma maneira ainda não compreendida.
Para estudar essa transição, os cientistas precisam parar, ou estabilizar, as partículas quânticas.
Além do entendimento do funcionamento básico da natureza, esses experimentos têm ligação direta com a computação quântica e com a spintrônica, duas abordagens que surgem no horizonte como sucessoras da atual era da informática eletrônica.
Fonte: Nature

quinta-feira, 15 de setembro de 2011

Neutrinos e antineutrinos parecem ter a mesma massa

A edição de 8 de julho passado da prestigiada revista científica Physical Review Letters (PRL) trouxe um artigo polêmico para a comunidade de físicos de partículas.
detector de Soudan
© Universidade de Minnesota (detector de Soudan)
Um trabalho feito no Fermilab por uma equipe internacional de pesquisadores, entre os quais quatro brasileiros, fornecia indícios de que os neutrinos do múon e seus respectivos antineutrinos poderiam não se comportar exatamente da mesma maneira e apresentar até massas distintas. O estudo sinalizava que talvez as diferenças entre a matéria e a antimatéria fossem maiores do que postula o modelo padrão, o arcabouço teórico erigido nos últimos 50 anos para explicar as interações entre as partículas subatômicas, os blocos que formam a matéria. Era um resultado surpreendente, que se baseava na análise de informações preliminares obtidas até junho de 2010 pelo experimento Minos (Main Injector Neutrino Oscillation Search), um dos projetos científicos tocados no laboratório americano, situado em Batavia, nos arredores de Chicago. O conteúdo do artigo, aparentemente em desacordo com algumas leis da física, conforme seus próprios autores, deve ser interpretado com cautela. Afinal, havia 2% de chance de os inusitados dados iniciais do Minos se deverem a uma flutuação estatística momentânea e não espelharem a realidade de neutrinos e antineutrinos.
Em 25 de agosto, no entanto, depois de quase dobrar a quantidade de informação processada pelo experimento em relação aos dados do artigo na PRL, o Fermilab divulgou um comunicado ao público. “Medidas mais precisas nos mostram que, muito provavelmente, essas partículas e suas antipartículas não são tão diferentes como indicamos antes. Dentro de nosso atual campo de visão, parece agora que o Universo está se comportando da maneira que a maioria das pessoas pensa que ele se comporta”, disse, em nota à imprensa, Rob Plunkett, cientista do Fermilab e um dos porta-vozes do Minos. De acordo com o estudo publicado na PRL, referendado pelo tradicional processo de revisão pelos pares (peer review) antes de ser aceito, o quadrado da massa dos antineutrinos – os pesquisadores usam como parâmetro de comparação o valor da massa elevada à segunda potência, e não apenas a medida da massa – parecia ser cerca de 40% maior do que o dos neutrinos. “Passamos quase um ano procurando algum efeito de instrumentação que pudesse ter causado essa diferença. É reconfortante saber que a estatística era a culpada”, afirmou outra porta-voz do experimento, a física Jenny Thomas, da University College London. Segundo as novas informações revisadas internamente pelos pesquisadores do Fermilab no fim do mês passado, mas ainda não submetidas ao escrutínio de uma revista com peer review, essa diferença se reduziu hoje para 16%. Há, portanto, uma grande possibilidade de as massas de neutrinos e antineutrinos serem iguais, como sustentam os modelos físicos atualmente aceitos.
Um dos participantes do Minos, o físico brasileiro Carlos Escobar explica que a revisão dos resultados do experimento foi encaminhada de forma a evitar qualquer tipo de análise enviesada. “Tudo foi feito às cegas e de forma automatizada”, afirma Escobar, hoje professor colaborador da Universidade Estadual de Campinas (Unicamp) e pesquisador do Fermilab. “Os dados são soberanos.” Ele, no entanto, admite que o novo cenário trouxe alívio para os físicos. “A comunidade científica está mais tranquila”, diz Escobar. Vários experimentos internacionais que trabalham com partículas e antipartículas pressupõem que neutrinos e antineutrinos têm a mesma massa para realizar seus cálculos. Quando aparece um estudo que contradiz tal preceito, caso do artigo do Minos na PRL, algum pilar da física pode ter sido arranhado.
Desaparecimento e oscilação – O objetivo do projeto do Fermilab é comparar a ocorrência de um fenômeno conhecido como oscilação em neutrinos e em antineutrinos do múon. No jargão dos físicos, quando um tipo de neutrino ou de antineutrino se transforma em outro ao se deslocar, ocorre uma oscilação. Há três formas ou sabores de neutrinos e antineutrinos: os do múon, os do tau e os do elétron. Esse trio de partículas com carga elétrica é chamado genericamente de léptons (neutrinos são léptons neutros). No Minos, os cientistas compararam a frequência com que neutrinos e antineutrinos do múon desapareceram e, supostamente, transformaram-se em neutrinos e antineutrinos do tau. “É a primeira vez que algum grupo de pesquisa mede a oscilação de antineutrinos do múon”, diz Philippe Gouffon, do Instituto de Física da Universidade de São Paulo (IF-USP), que também participa do experimento feito nos Estados Unidos.
Conceitualmente, a antimatéria é definida como uma espécie de cópia da matéria, com a qual divide basicamente as mesmas propriedades, inclusive a massa. Mas há uma diferença fundamental entre ambas: as antipartículas que moldam a antimatéria apresentam carga elétrica com sinal invertido em relação às suas respectivas partículas de matéria. Com carga positiva, o pósitron é a antipartícula do elétron, cuja carga é negativa. Fazendo jus a seu nome, neutrinos e antineutrinos são eletricamente neutros. No entanto, os primeiros estão ligados aos léptons de carga negativa e os segundos, aos de carga positiva. Os físicos acreditam que matéria e antimatéria devem existir na mesma proporção no Universo, embora a quantidade detectada de ambas esteja longe de ser a mesma. De forma grosseira, é nesse contexto teórico que os físicos estudam as propriedades de neutrinos e antineutrinos.
Embora sejam considerados as segundas partículas mais abundantes do Universo, atrás apenas dos fótons (partículas de luz), os neutrinos são virtualmente imperceptíveis. Não possuem carga elétrica, têm uma massa quase desprezível, deslocam-se a uma velocidade muito próxima à da luz e praticamente não interagem com a matéria. São capazes de simplesmente atravessar corpos enormes, como o planeta Terra, sem alterar seu deslocamento ou sofrer algum efeito perceptível. O Big Bang, a explosão primordial que, segundo a teoria mais aceita, criou o Universo há pouco menos de 14 bilhões de anos, deve ter sido a principal fonte de neutrinos. A atividade solar e os raios cósmicos são as fontes naturais mais conhecidas de neutrinos, que se formam a partir de processos como o decaimento radioativo (quando o núcleo de um átomo estável perde espontaneamente energia e emite partículas ionizadas) e as reações nucleares.
Ruído e informação - A comparação de parâmetros entre partículas e antipartículas só foi possível porque o experimento do Fermilab é um dos poucos no mundo, ao lado do T2K (Tokai to Kamioka) no Japão, capaz de produzir feixes específicos, constituídos apenas de neutrinos ou somente de antineutrinos, com níveis mínimos de contaminação. A maioria das iniciativas científicas trabalha com feixes que são um misto de partículas e antipartículas, limitação que dificulta a obtenção de dados detalhados a respeito do fenômeno da oscilação. “Produzir um sistema que gere partículas em quantidade suficiente para separarmos o ruído da informação é uma de nossas grandes dificuldades”, explica o físico João Coelho, aluno de doutorado da Unicamp que passou um ano no Fermilab com bolsa da FAPESP.
A primeira etapa do experimento Minos consiste em gerar as partículas que os físicos querem estudar. Com esse fim, o Main Injector – um anel de 3,2 quilômetros de circunferência que é um dos seis aceleradores de partículas do Fermilab – produz um pulso de prótons de alta energia destinado a se chocar contra um alvo de grafite. A colisão faz surgirem partículas instáveis, píons e káons, que vão gerar múons e neutrinos. Em seguida, o feixe é direcionado para uma parede que barra suas impurezas. Múons e outras partículas indesejadas são retirados e permanecem apenas os neutrinos do múon.
A segunda parte do experimento é o coração do Minos. O feixe de neutrinos purificado é direcionado para dois detectores subterrâneos, o primeiro a um quilômetro de distância do Fermilab e o segundo a 735 quilômetros, na mina desativada de Soudan, no estado de Minnesota. O detector mais próximo, que foi montado pouco mais de 100 metros abaixo do Fermilab e pesa mil toneladas, verifica a pureza e a intensidade do feixe. Suas medições servem para dar as características centrais do pulso. O detector mais longínquo pesa 6 mil toneladas e se encontra escondido 716 metros abaixo da superfície, numa caverna. Apenas 2,5 milissegundos depois de sair do Fermilab o feixe de neutrinos é detectado em Soudan. “As oscilações dos neutrinos ocorrem durante o percurso feito pelas partículas entre o primeiro e o segundo detector”, explica o físico Ricardo Gomes, da Universidade Federal de Goiás, que também participa do Minos.
Ao medirem pela primeira vez o desaparecimento de antineutrinos do múon, os cientistas do Fermilab inicialmente acharam que as oscilações dessas antipartículas e de suas partículas poderiam ser distintas, como está insinuado no artigo da PRL. Agora, com mais dados analisados, a equipe do Minos acredita que esse parâmetro seja igual para neutrinos e antineutrinos. “A física é uma ciência essencialmente experimental”, comenta Marcelo Guzzo, físico teórico da Unicamp que estuda neutrinos. “Qualquer resultado deve ser confirmado por vários grupos antes de termos a palavra definitiva”, diz Orlando Peres, outro especialista no tema, também da Unicamp. Segundo a física Renata Zukanovich Funchal, da USP, flutuações estatísticas são frequentes em experimentos com altas energias:“Por isso, devemos ter cautela quando encontramos resultados que não conseguimos compreender”.
Fonte: FAPESP (Pesquisa)

sexta-feira, 9 de setembro de 2011

Isolando pedaços de luz

Ondas possuem picos e vales, sejam elas as ondas do mar ou as ondas eletromagnéticas.
pulsos no ultravioleta, visível e infravemelho próximo
© Thorsten Naeser (pulsos no ultravioleta, visível e infravemelho)
Quando duas ondas, com diferentes comprimentos de onda, se sobrepõem precisamente, esses padrões de picos e vales se tornam mais complexos e menos repetitivos.
Eventualmente, na sequência da interação, não haverá mais nenhum ciclo, apenas um ponto isolado, apontando em alguma direção específica.
Mas Adrian Wirth e seus colegas do Instituto Max Planck de Óptica Quântica, na Alemanha, acabam de confinar um feixe de luz de grande espectro em pulsos que são mais curtos do que um único ciclo óptico.
A luz original é um feixe de laser branco, que contém comprimentos de onda que vão do infravermelho próximo ao ultravioleta, passando pelo espectro visível, uma espécie de arco-íris.
Esse laser branco é dirigido para o "sintetizador luminoso", o novo aparato criado pelos pesquisadores. De forma similar a um sintetizador de som, que superpõe as ondas sonoras de diferentes frequências para criar sons e ritmos diferentes, o sintetizador de luz superpõe ondas ópticas de diferentes cores e fases para criar vários formatos de onda. Os feixes são visualizados com a ajuda de vapor de nitrogênio.
protótipo do sintetizador de campo luminoso
© Thorsten Naeser (protótipo do sintetizador de campo luminoso)
O resultado é um pacote único de luz, mais curto do que uma onda completa da luz.
Essa "luz sem ciclo" compacta todas as interações entre os diversos comprimentos de onda em um único ponto luminoso.
Essa aplicação cria deverá viabilizar o estudo da dinâmica dos elétrons de uma forma que não era possível até agora, porque essas alterações eletrônicas acontecem em escalas temporais muito pequenas.
Isso permitirá, por exemplo, que os cientistas acompanhem os detalhes das reações químicas, hoje basicamente restritas ao "antes e depois" da própria reação.
A produção de transientes ópticos de sub-ciclo abre novas perspectivas para dirigir o movimento dos elétrons em escala atômica com a força elétrica da luz, assim como para conduzir complexas dinâmicas nas camadas de valência de moléculas.
Essa ferramenta será crucial para o desenvolvimento da chamada fotossíntese artificial, que depende da compreensão detalhada das reações químicas que os fótons do Sol induzem nas plantas, que possibilitará criar uma nova fonte de energia limpa, de alta eficiência e totalmente renovável.
No primeiro experimento realizado usando esse processo, os cientistas arrancaram o elétron da camada mais externa de um átomo do gás criptônio. O processo levou 700 attossegundos - o processo mais rápido já induzido opticamente até hoje.
Fonte: Science

segunda-feira, 5 de setembro de 2011

As leis da óptica são alteradas

Cientistas desenvolveram um novo método para controlar a luz usando a nanotecnologia. E, devido à descoberta, as leis da óptica foram literalmente mudadas.
espelho com nanoantenas
© Eliza Grinnell e Nanfang Yu (espelho com nanoantenas)
A técnica poderá ajudar os cientistas a projetar novas lentes planas e polarizadores, como os utilizados em câmeras e telas LCD.
Trata-se de um fenômeno óptico bizarro, que desafiou as leis da reflexão e refração, permitindo controlar a luz para que ela reflita e refrate de uma forma que não ocorre na natureza.
A nova técnica, chamada descontinuidade de fase, levou a uma reformulação das leis matemáticas que predizem o caminho de um raio de luz refletindo de uma superfície ou viajando de um meio para outro; por exemplo, do ar para o vidro.
"Usando superfícies construídas artificialmente, nós criamos os efeitos de uma casa dos espelhos de um parque de diversões em uma superfície plana," diz Federico Capasso, da Universidade de Harvard, coordenador da equipe. "Nossa descoberta leva a óptica a um novo território e abre as portas para desenvolvimentos instigantes na tecnologia fotônica."
nanoantenas alterando a direção da luz
 © Nanfang Yu (nanoantenas alterando a direção da luz)
Em seu experimento, o pesquisador Nanfang Yu e seus colegas criaram uma fina película metálica repleta de nanoantenas ópticas, que jogam a luz para frente e para trás sobre a superfície de uma pastilha de silício.
Projetando um feixe de luz sobre essa superfície nanoestruturada, as antenas induzem mudanças abruptas nas ondas de luz, fazendo-as dobrar e refletir na direção "errada", em comparação à reflexão e à refração comuns.
Até hoje, esses efeitos só haviam sido obtidos com metamateriais.
A técnica, baseada na forma como a luz viaja através de diferentes meios, cria uma interface artificial, que "engana" a luz, fazendo-a se comportar de uma forma totalmente não-usual.
As leis da óptica preveem os ângulos de reflexão e refração com base no ângulo de incidência da luz e nas propriedades dos dois meios.
Ao estudar o comportamento da luz nas suas superfícies nanoestruturadas, os pesquisadores perceberam que as equações atuais eram insuficientes para descrever os fenômenos bizarros que eles estavam observando no laboratório.
Para obter novas leis, mais gerais, eles tiveram que considerar que, se a fronteira entre dois meios tiver padronagens especiais, ela na verdade funciona como um terceiro meio de propagação.
Isto significa que, ao contrário de um sistema óptico convencional, a interface artificial entre o ar e o silício induz uma abrupta mudança de fase nas cristas das ondas de luz que a atravessa.
Cada nanoantena funciona como um minúsculo ressonador, que aprisiona a luz, segurando sua energia por um determinado período de tempo e, a seguir, liberando-a.
Um gradiente de diferentes tipos de ressonadores ao longo de toda a superfície de silício pode efetivamente curvar a luz antes mesmo que ela comece a se propagar através do novo meio.
O fenômeno resultante quebra as antigas leis da óptica, criando feixes de luz que refletem e refratam de forma arbitrária, dependendo do padrão da superfície.
A fim de generalizar as leis de reflexão e de refração nos livros-texto, os pesquisadores adicionaram um novo termo para as equações, representando o gradiente de alteração de fase induzida pela interface.
Se não existir tal interface artificial, basta zerar o gradiente que as novas leis produzem os mesmos resultados que suas versões já bem conhecidas.
Fonte: Science

sexta-feira, 2 de setembro de 2011

Internet mais rápida movida com grafeno

Uma colaboração entre cientistas das universidades de Manchester e de Cambridge, no Reino Unido, resultou na descoberta de um método que poderá levar à melhoria das características de dispositivos à base de grafeno para uso em fotodetectores em sistemas ópticos de comunicação em alta velocidade.
grafeno
© The University of Manchester (grafeno)
Os pesquisadores Andre Geim e Konstantin Novoselov, da Universidade de Manchester, que ganharam o prêmio Nobel de Física de 2010 por pesquisas com o grafeno, fazem parte do novo estudo.
O grafeno é formado por uma camada única de carbono, agrupada em uma grade em colmeia e na qual os átomos mantêm entre eles uma distância específica. Por meio da combinação de grafeno com nanoestruturas metálicas, os cientistas conseguiram uma melhoria de 20 vezes na transmissão de luz.
Ao colocarem essas estruturas metálicas, na forma de fios, em cima do grafeno e iluminar a estrutura, os cientistas observaram que o resultado era a geração de energia. O dispositivo funciona como uma célula solar básica.
O mais importante resultado da pesquisa é que o dispositivo apresentou potencial de transmitir dados em taxas de transferência muito mais rápidas – dezenas ou centenas de vezes – do que os mais rápidos cabos de internet disponíveis na atualidade. O motivo é a natureza única dos elétrons no grafeno, incluindo a alta mobilidade e velocidade.
A pesquisa resolve um grande problema do grafeno até então, que era a baixa eficiência. O grafeno absorve pouca luz, cerca de 3%, sendo que o resto é dissipado sem que contribua para a geração de eletricidade.
A combinação com as estruturas metálicas, chamadas de nanoestruturas plasmônicas, ampliou essa eficiência em 20 vezes nos testes feitos nos laboratórios britânicos, sem sacrificar a velocidade de transferência. Segundo os autores do estudo, no futuro a eficiência deverá aumentar muito mais.
Fonte: Nature Communications

quinta-feira, 1 de setembro de 2011

Registrada primeira imagem de um elétron orbitando uma molécula

A movimentação dos elétrons sempre foi difícil de ser registrada em imagem. Dessa vez, entretanto, cientistas da IBM Research Zurich e da University of Liverpool finalmente foram os primeiros a capturar a trajetória que um elétron realiza em torno de um núcleo.
orbitais do pentaceno
© Science (orbitais do pentaceno)
A substância em questão é o pentaceno, um hidrocarboneto composto por um agrupamento de cinco aneis benzênicos com 22 átomos de carbono e 14 átomos de hidrogênio. As regiões escurecidas da imagem, que parecem dividir a molécula em várias partes, consistem no caminho percorrido pelo elétron, no que é chamado de órbita.
A imagem nomeada como HOMO simboliza o caminho mais provável feito pelo elétron, enquanto LUMO mostra a trajetória que ele deve percorrer com menor frequência.
O registro só foi possível graças a um microscópio de força atômica (AFM), que é capaz de retratar imagens muito menores do que os aparelhos tradicionais, a própria agulha do instrumento necessita de outro microscópio para ser visualizada!
A tarefa é ainda mais difícil quando lembramos que o comportamento de um elétron é diferente de uma partícula comum, pois para determinar sua posição em um orbital exige cálculos baseados apenas em probabilidades.
Fonte: Science