quinta-feira, 31 de março de 2011

Observada partícula rara no LHC

O acesso aos dados dos experimentos no LHC (Grande Colisor de Hádrons) do CERN (Centro Europeu para Pesquisas Nucleares), possibilitou a observação das raras partículas méson B por pesquisadores da Universidade de Siracusa.
simulação de colisão de partículas no LHCb
© CERN (simulação de colisão de partículas no LHCb)
Acredita-se que esta partícula, criada quando prótons se chocam entre si próximos à velocidade da luz, estava presente imediatamente depois do Big Bang. Os pesquisadores, liderados pelo físico Sheldon Stone, esperam encontrar a resposta para a questão sobre a relação da matéria e da antimatéria logo após o Big Bang e para o fato de encontrarmos hoje mais matéria no Universo. A matéria e a antimatéria existiam na mesma proporção logo após o evento que deu origem ao Universo.
A matéria é composta de átomos formados por cargas positivas chamadas prótons, cargas negativas chamadas elétrons e os nêutrons. Os prótons e os nêutrons, por sua vez, são constituídos por partículas menores conhecidas como quarks. Já a antimatéria é composta por antiprótons, pósitrons, antinêutrons e por consequência por antiquarks. Acredita-se que ambos deveriam ser regidos pelas leis da Física igualmente, mas não é isto que ocorre e os cientistas buscam a razão para isto.
A partículas méson B fazem parte de um subgrupo raro dos mésons compostos tanto por quark quanto antiquark. Estas partículas violam a chamada simetria CP (C de carga e P de paridade).
Como esta partícula era comum após o Big Bang e hoje é encontrado apenas em condições experimentais em aceleradores de partículas, como o LHC, e não na natureza, os cientistas acreditam que o seu papel na superação da matéria sobre a antimatéria no Universo tenha sido decisivo.
Fonte: Physics Letters B

quinta-feira, 24 de março de 2011

Criada a antimatéria mais pesada

Um grupo internacional de cientistas, com participação de brasileiros, criou uma nova forma de antimatéria que é a mais pesada já vista.
colisão de núcleos atômicos
© RHIC/STAR (colisão de núcleos atômicos)
Até então, a antimatéria mais complexa e mais pesada já criada era um híbrido de hélio e hidrogênio, um anti-hélio-3, com dois antiprótons e um antinêutron.
Agora foram criados núcleos de anti-hélio verdadeiro, contendo dois antiprótons e dois antinêutrons, ou anti-hélio-4.
O anti-hélio foi detectado no RHIC (Relativistic Heavy Ion Collider -Colisor Relativístico de Íons Pesados), que fica localizado em Upton, no estado de Nova Iorque. O colisor é operado pela Colaboração STAR, que reúne 584 cientistas de 54 instituições de 12 países diferentes.
No ano passado, a equipe STAR anunciou a descoberta do anti-hipertríton, formado por um antipróton, um antinêutron e uma partícula instável chamada anti-lambda. O anti-hipertriton era então antipartícula mais pesada que se conhecia.
Mas os 18 núcleos de anti-hélio-4 observados agora bateram os recordes anteriores.
Anti-partículas têm carga elétrica oposta à das partículas de matéria ordinária - os antinêutrons, que são eletricamente neutros, são compostos de antiquarks que têm carga oposta à dos quarks normais.
As partículas de antimatéria aniquilam-se no contato com a matéria comum, emitindo um flash de raios gama, o que as torna notoriamente difíceis de encontrar e observar.
Mas isto vem mudando rapidamente. No ano passado cientistas conseguiram capturar a antimatéria pela primeira vez e, há poucas semanas, anunciaram o desenvolvimento de uma garrafa capaz de guardar antimatéria.
No RHIC, os cientistas colidem núcleos atômicos pesados, como chumbo e ouro, onde a energia é tão densa que podem ser criadas muitas novas partículas.
A imagem a seguir mostra a anti-tabela periódica, que também é conhecida como Quadro 3-D dos nuclídeos.
anti-tabela periódica
© RHIC/STAR (anti-tabela periódica)
A Tabela Periódica normal organiza os elementos de acordo com seu número atômico (Z), que determina as propriedades químicas de cada elemento. Os físicos também trabalham com o eixo N, que dá o número de nêutrons no núcleo de cada átomo.
O terceiro eixo representa a estranheza (S), que é zero para toda a matéria que ocorre naturalmente, mas pode ser não-zero no núcleo de estrelas colapsadas.
Os antinúcleos ficam na porção Z e N negativos, e o novo antinúcleo descoberto agora (mostrado em magenta na ilustração) estende a anti-tabela periódica para a região da antimatéria estranha.
O próximo anti-elemento dessa nascente anti-tabela periódica, o antilítio, poderia formar antimatéria sólida a temperatura ambiente, mas isso será algo muito mais difícil de fazer.
A equipe STAR calcula que o antilítio irá nascer de colisões com menos de um milionésimo da frequência de formação do anti-hélio-4 agora observado. Na prática, isso o coloca fora do alcance dos colisores de hoje, incluindo o LHC.
A obtenção do anti-hélio não responde por que é que o Universo não está repleto de antimatéria.
De fato, as teorias atuais afirmam que matéria e antimatéria foram criadas em quantidades iguais nos primeiros instantes do Universo, mas, por razões desconhecidas, a matéria prevaleceu.
Um observatório espacial, chamado AMS (Espectrômetro Magnético Alfa), que será levado para a Estação Espacial Internacional em Abril pelo ônibus espacial Endeavour, vai tentar minimizar esse problema.
Já se sabe que os antiprótons ocorrem naturalmente em pequenas quantidades entre as partículas de alta energia, os chamados raios cósmicos, que atingem a Terra.
O AMS irá procurar por antipartículas mais pesadas. Mas se o anti-hélio é produzido apenas raramente em colisões, como mostrado agora pelo RHIC, então o AMS não deverá detectar anti-hélios.
Se ele encontrar altos níveis de anti-hélio, isto poderia reforçar a teoria de que a antimatéria não foi destruída no início do Universo, mas simplesmente separada em uma parte diferente do espaço, onde não entra em contato com a matéria.
Fonte: New Scientist

quarta-feira, 16 de março de 2011

A primeira máquina do tempo do mundo?

O LHC (Large Hadron Collider), além de ser o maior experimento científico do mundo, pode se tornar também a primeira máquina capaz de fazer a matéria viajar de volta no tempo.
LHC
© LHC (panorâmica do colisor)
Os físicos Tom Weiler e Chui Man Ho da Universidade de Vanderbilt, nos Estados Unidos, acabam de propor a ideia em um artigo ainda não aceito para publicação.
"Nossa teoria é um tiro de longa distância," admite Weiler. "Mas ela não viola nenhuma lei da física e nem qualquer restrição experimental.
Um dos maiores objetivos do LHC é encontrar o bóson de Higgs, uma partícula hipotética que pode explicar porque partículas como os prótons, nêutrons e elétrons possuem massa.
Se o Grande Colisor de Hádrons realmente conseguir produzir essa que é chamada a "partícula de Deus", alguns físicos acreditam que ele irá criar também uma segunda partícula, o singleto de Higgs.
Segundo a proposta de Weiler e Ho, esses singletos teriam a capacidade de saltar para uma quinta dimensão, onde eles poderiam se mover para frente e para trás no tempo, retornando depois para nossa dimensão, mas reaparecendo no futuro ou no passado.
"Uma das coisas mais atrativas dessa abordagem da viagem no tempo é que ela evita todos os grandes paradoxos", diz Weiler.
Na verdade, a abordagem evita os passageiros mais problemáticos na viagem. Como somente partículas com características tão especiais poderiam viajar no tempo, ninguém poderia retornar ao passado e matar algum antecessor, eliminando a possibilidade da própria existência.
"Entretanto, se os cientistas puderem controlar a produção dos singletos de Higgs, eles poderão enviar mensagens para o passado ou para o futuro", propõe Weiler.
Web
© Vanderbilt (ilustração da teoria dos singletos viajantes no tempo)
A imagem está mostrando quando dois prótons colidem no LHC, a explosão pode criar um tipo especial de partícula, chamado singleto de Higgs, que seria capaz de viajar no tempo pegando atalhos em outras dimensões.
Testar a teoria bastará observar se o LHC produz os singletos de Higgs e se os produtos do seu decaimento começam a surgir espontaneamente.
Neste caso, isso indicará que esses produtos estão sendo gerados por partículas que viajaram de volta no tempo para reaparecer antes da ocorrência das colisões que as originaram.
A proposta é baseada na Teoria-M, que tem a pretensão de ser uma "teoria de tudo". A Teoria-M requer a existência de 10 ou 11 dimensões, em vez das quatro que nos são familiares (as três espaciais mais o tempo). Isso levou à sugestão de que nosso Universo pode ser uma membrana - ou "brana" - quadridimensional flutuando em um espaço-tempo multidimensional, chamado de "O Todo" (Bulk).
Segundo essa "visão de mundo", os blocos fundamentais do nosso Universo estão permanentemente presos à sua brana, o que os impede de viajar para outras dimensões.
Mas pode haver exceções - a gravidade, por exemplo, seria uma força tão fraca porque ela se difunde por outras dimensões. Outra possível exceção seria o singleto de Higgs, que corresponde à gravidade, mas a nenhuma das outras forças básicas.
Uma terceira possibilidade seria um ainda mais elusivo neutrino estéril, um parente mais raro dos quase indetectáveis "neutrinos normais".
Um neutrino normal interage tão pouco com a matéria que pode atravessar um cubo de um ano-luz de lado feito de chumbo sem se chocar com nenhum átomo.
Os neutrinos estéreis não se chocariam nunca com nada - eles também reagiriam apenas com a gravidade, o que os torna passageiros viáveis para a máquina do tempo de Weiler e Ho.
Se os neutrinos estéreis pegarem atalhos por outras dimensões, do ponto de vista da nossa dimensão eles poderiam viajar em velocidades mais altas do que a velocidade da luz.
De acordo com a Teoria da Relatividade Geral de Einstein, há certas condições nas quais viajar mais rápido do que a velocidade da luz é equivalente a viajar de volta no tempo.
Especulações que, por enquanto, estão rendendo bastante no mundo da ficção científica. Os recentes títulos: A Máquina do Tempo Acidental, de Joe Haldeman e Teoria Final, de Mark Alpert, que de acordo com o New York Times, é baseado na obra O Código Da Vinci de Dan Brown. Estas publicações amparam-se na ideia dos neutrinos viajantes no tempo.
Fonte: ScienceDaily

segunda-feira, 28 de fevereiro de 2011

Criada fibra óptica com cristal semicondutor

Um grupo de cientistas dos Estados Unidos anunciou o desenvolvimento de uma nova classe de fibra óptica. Trata-se da primeira fibra com o interior feito com seleneto de zinco, um composto amarelo claro com propriedades semicondutoras.
fibra óptica com cristal semicondutor
© PSU (fibra óptica com cristal semicondutor)
A nova classe de fibra óptica que permite, segundo os autores, a manipulação mais eficiente da luz e poderá ser usada no desenvolvimento de tecnologias de laser mais versáteis para uso em medicina ou como sensores ambientais e químicos.
John Badding, da Universidade da Pensilvânia, coordenador da pesquisa, explicou que a tecnologia de fibra óptica tem sido limitada pela utilização de um núcleo vítreo.
"O vidro tem um arranjo desordenado de átomos. Já uma substância cristalina, como o seleneto de zinco, é altamente ordenada. Essa ordem permite a transmissão de luz com comprimentos de onda mais longos, especificamente na região do infravermelho médio," disse ele.
Ao contrário de vidro de sílica, que é tradicionalmente utilizado na construção de fibras ópticas, o seleneto de zinco é um composto semicondutor.
É conhecido há muito tempo que o seleneto de zinco é um composto útil, capaz de manipular a luz de uma forma que a sílica não consegue. O desafio foi colocar este composto em uma estrutura de fibra, algo que nunca havia sido realizado antes.
Usando uma técnica de deposição química sob alta pressão, desenvolvida por Justin Sparks, coautor da pesquisa, os cientistas depositaram núcleos de seleneto de zinco no interior de capilaridades do vidro, criando esta nova classe de fibras ópticas.
A nova fibra óptica demonstrou duas vantagens importantes. Primeiramente, os pesquisadores descobriram que a nova fibra é mais versátil não apenas no espectro visível, mas também no infravermelho, a radiação eletromagnética com comprimentos de onda acima da luz visível. A tecnologia atual de fibras ópticas é ineficiente na transmissão da luz infravermelha. A quebra dessa barreira abre caminho para o uso das fibras ópticas na construção de lasers infravermelhos, potencialmente encontrando usos na área médica, em cirurgias, por exemplo. Em segundo lugar, ela é mais eficiente na conversão de luz de uma cor para outra.
"Quando as fibras ópticas tradicionais são usadas em sinalização, exposições e em arte, nem sempre é possível obter as cores que você quer. O seleneto de zinco, por meio de um processo chamado de conversão de frequência não linear, tem maior capacidade de alterar as cores", disse Badding.
Os pesquisadores destacam ainda que a tecnologia poderá ser útil na fabricação de novos detectores de poluentes e de toxinas.
"Moléculas diferentes absorvem luz de diferentes comprimentos de onda. Por exemplo, a água absorve, ou pára, a luz com comprimento de onda de 2,6 micrômetros. Mas as moléculas de certos poluentes ou outras substâncias tóxicas podem absorver a luz de comprimentos de onda muito maiores. Se pudermos transportar luz de comprimentos de onda mais longos através da atmosfera, poderemos ver quais substâncias estão lá com muito mais clareza", disse Badding.
Fonte: Advanced Materials

sexta-feira, 25 de fevereiro de 2011

Oscilador quântico acoplado

O oscilador quântico acoplado possui dois osciladores harmônicos, onde cada oscilador envia para o outro exatamente um quanta de energia, a menor unidade possível de energia.
 dispositivo do oscilador harmônico acoplado
© NIST (dispositivo do oscilador quântico acoplado)
Este é o aparato onde os dois íons de berílio ficaram presos para trocar a menor unidade mensurável de energia. Os íons ficam a cerca de 40 micrômetros um do outro, acima do quadrado de ouro que se pode ver no centro. O chip está rodeado por uma malha de cobre e ouro para evitar o acúmulo de cargas estáticas.
O oscilador quântico acoplado foi construído por cientistas do Instituto Nacional de Padronização e Tecnologia dos Estados Unidos. Eles colocaram dois íons de berílio próximos um ao outro e os induziram a ficar trocando as menores unidades de energia que se pode medir. Como a troca de energia equivale à troca de informações, esse oscilador quântico  acoplado poderá ser usado para transferir, por exemplo, dados codificados em um fóton, entre dois íons.
Há possibilidade de transferência da informação quântica para um oscilador mecânico, que poderia servir de interface neste sistema. O movimento dos íons, embora aconteça em condições regidas pela mecânica quântica, pode ser comparado ao comportamento de dispositivos osciladores do mundo macroscópico, como o pêndulo de um relógio ou um diapasão.
A troca de energia de vários quanta foi detectada a cada 155 microssegundos. A troca de um quanta foi menos comum, e ocorreu a cada 218 microssegundos.
Os íons podem trocar energia indefinidamente, até que o processo seja interrompido pelo aquecimento do dispositivo que funciona com temperatura de -269ºC.
Essa capacidade de troca de energia, ou de informações, em nível quântico, é mais uma ferramenta na construção dos computadores quânticos. O acoplamento direto de íons postos em locais separados pode simplificar as operações lógicas e ajudar a corrigir erros de processamento.
Além disso, o experimento sugere que as interações podem ser usadas para conectar diferentes tipos de sistemas quânticos, como um íon e uma partícula de luz, um fóton, para transferir informações em uma rede quântica. Por exemplo, um íon aprisionado poderia atuar como um "transformador quântico" entre um qubit (bit quântico) supercondutor e um qubit feito de fótons.
Fonte: Nature

quinta-feira, 24 de fevereiro de 2011

Simulador quântico torna-se acessível

Os físicos experimentais se esforçam para isolar as medições sensíveis das influências perturbadoras do meio ambiente.
ilustração de um íon interagindo com simulador quântico
© Nature (ilustração de um íon interagindo com simulador quântico)
Um simulador quântico desenvolvido por físicos austríacos oferece novas perspectivas para o estudo do comportamento de sistemas quânticos de alta complexidade.
Muitos fenômenos em nosso mundo são em função da natureza da física quântica: a estrutura dos átomos e moléculas, reações químicas, as propriedades dos materiais, o magnetismo e possivelmente também alguns processos biológicos. Como a complexidade dos fenômenos aumenta exponencialmente com mais partículas quânticas envolvidas, um estudo detalhado destes sistemas complexos rapidamente chega ao seu limite, e os computadores convencionais falham quando calculam tais problemas. Para superar essas dificuldades, os físicos vêm desenvolvendo simuladores quânticos em várias plataformas, tais como átomos neutros, íons ou sistemas de estado sólido, que semelhantes aos computadores quânticos, utilizam a natureza particular da física quântica para controlá-los.
Em outro avanço neste campo, uma equipe de jovens cientistas em grupos de pesquisa de Rainer Blatt e Peter Zoller no Instituto de Física Experimental e Física Teórica da Universidade de Innsbruck e do Instituto de Óptica Quântica e Informação Quântica (IQOQI) da Academia Austríaca de Ciências foram os primeiros a projetar uma caixa de ferramentas abrangente para um computador quântico de sistema aberto, que permitirá aos investigadores a construção de simuladores quânticos mais sofisticadas para a investigação de problemas complexos na física quântica.
Os físicos em seus experimentos tentam minimizar tanto quanto possível as perturbações ambientais. Tais distúrbios geralmente causam perda de informação em sistemas quânticos e destroem os efeitos quânticos como o emaranhamento ou a interferência.
Usando a dissipação, os pesquisadores são capazes de gerar e intensificar os efeitos quânticos, tais como o emaranhamento, no sistema.
O uso benéfico de um ambiente que permite a realização de novos tipos de dinâmica quântica e a investigação de sistemas têm sido pouco acessível para os experimentos. Recentemente, através desta pesquisa foi possível implementar com sucesso esses efeitos dissipativos em um simulador quântico.
Fonte: Nature

domingo, 20 de fevereiro de 2011

O primeiro antilaser é construído

O laser é uma invenção de mais de 50 anos de idade usado em diversas tecnologias. Recentemente, foi construído o antilaser, o primeiro aparelho capaz de prender e anular feixes de laser.
ondas de luz no antilaser
© Universidade de Yale (ondas de luz no antilaser)
Um antilaser consome a luz que o atinge, produzindo escuridão e calor. Sua aplicação poderá ocorrer provavelmente na próxima geração de computadores ópticos, que serão alimentados por luz e elétrons.
Um laser amplifica a luz e funciona como "meio de ganho", criando um feixe de fótons idênticos, uma onda de luz coerente, na qual todos os fótons têm a mesma frequência e amplitude e todos estão em fase.
A luz original é injetada em uma cavidade contendo um gás, situada entre dois espelhos. Os fótons alteram o estado quântico dos elétrons do gás, liberando outros fótons idênticos.
Com todos esses fótons refletindo-se de um lado para o outro entre os dois espelhos, e chocando-se com mais elétrons, cada vez mais fótons são liberados, todos idênticos, até criar um feixe brilhante de luz que escapa da armadilha.
É assim que as coisas funcionam quando a seta do tempo aponta para o futuro, como usual.
O que A. Douglas Stone e seus colegas da Universidade de Yale fizeram agora foi colocar o relógio para funcionar ao reverso, pegando a luz de um laser e convertendo-a em calor.
Como inverter todo o processo seria complicado demais, os pesquisadores tiveram a ideia de disparar dois feixes de laser, um na direção do outro, de forma que os dois se cancelassem perfeitamente.
Os dois feixes de laser foram dirigidos para uma "cavidade" que é na verdade uma pastilha de silício, que funciona como "meio de perda".
O silício alinha as ondas de luz de tal forma que elas ficam presas, refletindo-se entre suas paredes indefinidamente, até serem absorvidas e se transformarem em calor.
O antilaser de laser é chamado de tempo reverso ou CPA (Coherent Perfect Absorber). Não exatamente perfeito. O laser reverso de silício absorveu 99,4% da luz infravermelha do laser original, emitida em um comprimento de onda de 998,5 nanômetros, transformando-a em calor. Mas a teoria diz é possível chegar em 99,999% de absorção.
O protótipo do antilaser também ainda não tem o tamanho ideal. Ele mede 1 centímetro de lado, embora os cálculos indiquem que o ideal seria uma pastilha de 6 micrômetros.
A equipe também espera conseguir ajustar o dispositivo para que ele seja capaz de absorver lasers que emitem luz na faixa visível do espectro, assim como nas faixas específicas do infravermelho utilizadas em comunicações por fibra óptica.
Segundo os cientistas, ele poderá ser usado, no futuro, em chaves ópticas, sensores e até em uma próxima geração de computadores, os chamados computadores ópticos.
Como os dados nos processadores ópticos serão transferidos por luz, poderá ser necessário recolher o dado óptico e enviá-lo para um processamento externo, fora do chip. O antilaser poderá fazer isto.
Outra possibilidade é na radiologia, onde o princípio do laser reverso poderá ser usado para dirigir a radiação eletromagnética com precisão para um ponto específico no interior dos tecidos humanos, apesar da opacidade desses tecidos.
Fonte: Science

quarta-feira, 16 de fevereiro de 2011

Transístor de plástico flexível

Na busca pelo desenvolvimento de aparelhos eletrônicos flexíveis, um dos maiores obstáculos tem sido a criação de transistores com estabilidade suficiente para funcionar em vários ambientes.
transístor de plástico dobrável
© Gatech (transístor de plástico dobrável)
A diferença entre o frio seco e congelado do norte da Europa e o calor úmido dos trópicos tem sido demais para a eletrônica orgânica, cujos componentes flexíveis são feitos basicamente de plástico.
Agora, pesquisadores do Instituto de Tecnologia da Geórgia, nos Estados Unidos, desenvolveram uma técnica que combina os transistores orgânicos de efeito de campo com uma porta isolante de duas camadas.
Isto permite que o transístor funcione com uma estabilidade sem precedentes e com um nível adequado de desempenho, que não depende apenas dos semicondutores propriamente ditos, mas também da interface entre os semicondutores e as portas dielétricas, ou isolantes.
O novo transístor orgânico pode ser produzido em massa, com técnicas industriais, em uma atmosfera normal, pois a fabricação em temperaturas mais baixas é essencial para que o componente seja compatível com os dispositivos de plástico em que deverá funcionar.
A bicamada dielétrica é feita de um polímero fluorado, conhecido como CYTOP, e de uma camada de óxido metálico de elevada constante dielétrica, criada por deposição de camadas atômicas.
Quando usadas isoladamente, cada uma dessas substâncias tem suas vantagens e desvantagens.
O CYTOP é conhecido por formar poucos defeitos na interface do semicondutor orgânico, mas também tem uma constante dielétrica muito baixa, o que requer um aumento na tensão de funcionamento.
O metal-óxido de k elevado utiliza baixa tensão, mas não tem boa estabilidade por causa de um elevado número de defeitos na interface.
Bernard Kippelen e sua equipe descobriram que a combinação dos dois materiais anula em grande parte os defeitos das substâncias isoladas. Anteriormente, a equipe de Kippelen já havia construído um transístor orgânico usando carbono 60.
ciclos de funcionamento dos transístores
© Advanced Materials (ciclos de funcionamento dos transístores)
Os transistores sobreviveram a mais de 20.000 ciclos de funcionamento, sem nenhuma degradação, mesmo quando foram submetidos ao dobro da sua corrente nominal. Mesmo dentro de uma câmara de plasma eles funcionaram por cinco minutos sem degradação.
Fonte: Advanced Materials

segunda-feira, 14 de fevereiro de 2011

Temperaturas abaixo do zero absoluto podem ser alcançadas?

O zero absoluto é um limite inviolável para além do qual é impossível explorar. De fato, há um reino estranho de temperaturas negativas, que não só existe na teoria, mas também se mostrou acessível na prática, e poderia revelar novos estados da matéria.
temperaturas absolutas negativas são mais quentes
© NewScientist (temperaturas absolutas negativas)
A temperatura é definida pela forma como a adição ou a remoção de energia afeta a quantidade de desordem, ou entropia, em um sistema.
Para os sistemas nas temperaturas positivas com as quais estamos acostumados, o acréscimo de energia aumenta a desordem: aquecer um cristal de gelo vai fazer com que ele se derreta em um líquido mais desordenado, por exemplo.
Continue a remover energia e você vai chegar cada vez mais perto do zero na escala absoluta, ou escala Kelvin, que é -273,15 °C, onde a energia do sistema e a entropia estarão no mínimo.
Sistemas de temperatura negativa, entendidas como abaixo do zero absoluto, têm comportamento oposto: acrescentar energia reduz sua desordem e, portanto, sua temperatura.
Mas eles não são frios no sentido convencional de que o calor irá fluir para eles a partir de sistemas com temperaturas positivas.
Na verdade, os sistemas com temperaturas absolutas negativas têm mais átomos em estados de alta energia do que é possível mesmo nas mais elevadas temperaturas na escala das "absolutas positivas".
Assim, o calor deve sempre fluir deles para os sistemas acima de zero Kelvin.
Criar sistemas de temperatura negativa para estudar as propriedades desse mundo bizarro, contudo, pode ser complicado.
Não dá para criá-los de maneira suave e contínua, sempre baixando a temperatura, já que não será possível romper a barreira do zero absoluto da maneira usual.
Mas é possível saltar sobre essa barreira, passando diretamente de uma determinada temperatura absoluta positiva (acima do zero absoluto) para uma temperatura absoluta negativa (abaixo do zero absoluto).
Isso já foi feito em experimentos nos quais núcleos atômicos foram colocados em um campo magnético, sob o qual eles agem como minúsculos ímãs, alinhando-se com o campo.
Quando o campo é subitamente revertido, os núcleos ficam momentaneamente alinhados na direção oposta àquela que corresponde ao seu menor estado de energia.
Na fração de tempo em que permanecem nesse estado fugaz, eles se comportam de forma coerente com a de um sistema com temperaturas absolutas negativas. Logo após eles se viram e se realinham com o campo.
esquema da entropia em função da energia
© Physical Review Letters (entropia em função da energia)
Como os núcleos só podem alternar entre dois estados possíveis, paralelo ao campo ou oposto a ele, este sistema oferece poucas possibilidades para investigação.
Em 2005, Allard Mosk, atualmente na Universidade de Twente, na Holanda, idealizou um experimento que poderia oferecer mais possibilidades de estudos do regime de temperaturas negativas.
Primeiro, lasers são usados para agrupar os átomos até formar uma bola muito coesa, que estaria em um estado altamente ordenado, ou de baixa entropia.
Outros lasers são então disparados sobre a bola de átomos para criar uma matriz de luz, a chamada grade óptica, que circundaria a bola de átomos com uma série de "poços" de baixa energia. O primeiro conjunto de lasers é então reajustado de modo que eles passam a tentar desconstruir a bola de átomos. Isso deixa os átomos em um estado instável, como se estivessem equilibrados no pico de uma montanha, prestes a rolar ladeira abaixo. A grade óptica funciona como uma série de fendas ao longo da montanha, travando a "descida" dos átomos montanha abaixo.
Neste estado, remover parte da energia potencial dos átomos, levando-os a rolar e se distanciar uns dos outros, levaria a uma maior desordem, a exata definição de um sistema de temperaturas absolutas negativas.
Agora a ideia de Mosk foi refinada por Achim Rosch e seus colegas da Universidade de Colônia, na Alemanha.
A nova proposta de experimento é essencialmente a mesma, mas os cálculos de Rosch e sua equipe dão mais fundamento à ideia, sustentando que ela é realmente factível.
O grande avanço, contudo, é que eles sugerem uma maneira de testar se o experimento realmente produzirá temperaturas negativas absolutas.
Como os átomos no estado de temperaturas negativas têm energias relativamente altas, eles deverão se mover mais rapidamente quando liberados da armadilha do que ocorrerá com uma nuvem de átomos com temperatura positiva.
Este é um território desconhecido, nunca antes explorado, com grande potencial para revelar surpresas.
Fonte: NewScientist e Physical Review Letters

terça-feira, 8 de fevereiro de 2011

Descoberto novo estado quântico da água

As características estranhas da água poderiam ser pelo menos parcialmente explicadas pela mecânica quântica.
modelo quântico da molécula de água
©  P. J. MacDougall (modelo quântico da molécula de água)
Essa é a afirmação feita por um grupo de físicos do Reino Unido e Estados Unidos, que fizeram medições extremamente sensíveis dos prótons em pequenas amostras de água e descobriram que essas partículas de prótons se comportam de forma muito diferente às de amostra muito maior.
A água tem uma série de propriedades que o distinguem de outras substâncias e que a tornam particularmente adequadas para sustentar a vida. Por exemplo, o fato de que a água em estado sólido é menos densa do que em estado líquido e que sua densidade máxima ocorre aos 4°C significa que os lagos congelam de cima para baixo, algo que era vital para a manutenção vida durante as eras glaciais na Terra.
No mais recente trabalho, George Reiter e seus colegas, da Universidade de Houston (EUA) focalizou na ligação de hidrogênio, que é a chave para as propriedades incomuns da água. Esta ponte de hidrogênio nas moléculas de água é caracterizada pela conexão do átomo de oxigênio de uma molécula com o átomo de hidrogênio de outra. As ligações de hidrogênio são normalmente consideradas principalmente como um fenômeno eletrostático, ou seja, que a água consiste de moléculas discretas ligadas entre si através de cargas positivas e negativas (que residem nos átomos de hidrogênio e oxigênio, respectivamente).
diagrama molecular de água líquida
© PhysicsWorld (diagrama molecular de água líquida)
Esta imagem simples é capaz de explicar algumas das características da água, tais como a sua estrutura, cujas previsões do modelo são coerentes com os resultados experimentais de espalhamento de nêutrons, que revelam quão distantes em média, um átomo de oxigênio está em relação ao seguinte. 
O que Reiter e sua equipe descobriram é que este modelo eletrostático não pode ser usado para prever as energias de prótons individuais dentro de moléculas de água. Eles chegaram a essa conclusão depois de confinar a água dentro de nanotubos de carbono de 1,6 nm de diâmetro e, em seguida, expor esses nanotubos à fonte de nêutrons de alta energia ISIS no laboratório Rutherford Appleton, no Reino Unido. O ISIS é um acelerador de prótons, cuja energia é de 800 MeV, produzindo intensos pulsos de 50 prótons por segundo.
A distribuição do momento dos prótons é fortemente dependente da temperatura, apresentando uma energia cinética 50% maior do que o previsto pelo modelo eletrostático em temperaturas baixas, e 20% maior a temperatura ambiente. O modelo eletrostático dá previsões razoavelmente precisas apenas para a água em grande volume a temperatura ambiente.
A equipe alega que isso é prova de que os prótons existem em um estado quântico observado anteriormente, quando a água está confinada a um volume muito pequeno, um estado que não é descrito pelo modelo eletrostático. Eles dizem que enquanto a distâncias de 0,1 nm que as moléculas geralmente separam apenas o potencial intermolecular também exerce uma força significativa, na escala de 0,01 nm, típico de um próton indivíduo potenciais flutuações quânticas também responsável que ocorrem ao longo das ligações de hidrogênio se tornam significativos. Desta forma, as ligações de hidrogênio apresentam flutuações quânticas e formam o que é conhecido como uma "rede eletrônica conectada", que provavelmente é a resposta ao confinamento que gera as grandes mudanças na energia dos prótons. 
Os pesquisadores confirmaram esta discrepância utilizando outros materiais. Por exemplo, eles descobriram que quando a água estava confinada dentro do material industrial nafion, uma membrana trocadora de prótons, utilizado em células a combustível, os prótons tinham quase o dobro da energia cinética da água bruta. Eles também descobriram que, ao usar nanotubos de carbono de 1,4 nm de diâmetro, de parede simples, a distribuição foi de 30% menos da energia cinética do que na água a granel.
Segundo Reiter, esse novo estado quântico pode ser importante para a vida porque o comprimento dos nanotubos usados para confinar a água nos experimentos, cerca de 2 nanômetros, é mais ou menos semelhante às distâncias entre as estruturas no interior das células biológicas. A mecânica quântica dos prótons na água sempre exerceu um papel no desenvolvimento da vida celular, mas nunca havia sido notado anteriormente.
Reiter acredita também que a pesquisa do seu grupo poderia ter aplicações práticas, tais como a melhoria do desempenho das células a combustível.
Sow-Hsin Chen, do Instituto de Tecnologia de Massachusetts, que não tomou parte na pesquisa atual, concorda que os resultados do experimento implicaria que o padrão das ligações de hidrogênio em águas confinadas pode ser bastante diferente do que na água bruta, e diz que o próximo passo é realizar simulações de mecânica quântica para descobrir como isso afeta as propriedades da água confinada. Mas ele adverte que nem todas as propriedades da água são necessariamente explicável usando a mecânica quântica em alguns casos poderia ser melhor explicada usando mecânica estatística.
Fonte: PhysicsWorld

sexta-feira, 28 de janeiro de 2011

Lente de Luneburg é criada

Físicos do Reino Unido criaram uma lente de Luneburg, uma lente capaz de focalizar a luz em todas as direções, no interior de uma pastilha de silício.
lente de luneburg
©  Instituto Niels Bohr (ilustração do feixe de elétrons no grafite)
A maioria das lentes tem aberrações, o que significa que sua capacidade de focalizar a luz se deteriora quando a luz incidente está fora do eixo.
Mas na lente de Luneburg, proposta teoricamente há mais de 60 anos, a focalização funciona sempre da mesma forma, com a mesma qualidade, não importando de onde a luz esteja vindo.
O componente deverá ter aplicações em optoeletrônica, na chamada óptica de Fourier, usada pela indústria de telecomunicações para a redução de ruídos nas transmissões e para a compressão de dados.
Mas criar uma lente de Luneburg se mostrou algo complicado. Essas lentes exigem que o índice de refração, a propriedade que determina como a luz é desviada por uma lente, varie ao longo do dispositivo, com um máximo de √2 (aproximadamente 1,4) maior do que o mínimo.
Com tecnologia atual é impossível dopar um material com impurezas para atingir esse nível de contraste do índice de refração.
Outros cientistas tentaram fazer versões aproximadas da lente de Luneburg no passado, mas nunca alcançaram o resultado esperado.
Agora, Ulf Leonhardt e seus colegas da Universidade de St. Andrews criaram uma lente Luneburg para a luz infravermelha usando um guia de ondas de silício.
"Acreditava-se ser impossível construir uma lente de Luneburg no espectro visível ou próximo dele, a um custo razoável", comentou Juan Miñano, da Universidade Politécnica de Madrid, que não estava envolvido com a pesquisa.
O dispositivo criado por Leonhardt e seus colegas é um pedaço de silício microscópico, com a forma de uma lente de contato, servindo de recheio para duas camadas grossas de polímero e sílica, tudo posto sobre um substrato.
Quando os pesquisadores disparam um feixe de luz com um comprimento de onda de 1.575 nanômetros rumo ao dispositivo, a luz cobre a interface entre o polímero e a sílica, até atingir a lente, onde fica fortemente confinada.
Na verdade, a geometria da lente cria um perfil de índice de refração efetivo que varia de 1,4 a 2,8, focando o feixe em um ponto com 3.770 nanômetros de diâmetro.
Para uma lente de Luneburg ideal, este ponto focal deveria ter a metade do comprimento de onda, ou cerca de 800 nanômetros, quase cinco vezes menor do que os cientistas obtiveram.
Leonhardt afirma que a discrepância se deve a limitações da óptica, e que um feixe de luz que abrangesse toda a lente, e não apenas uma parte dela, produziria uma resolução melhor.
Igor Smolyaninov, pesquisador da Universidade de Maryland, nos EUA, que também trabalha com novos tipos de lentes, acha que a lente de Luneburg baseada em um guia de ondas é um resultado importante.
Smolyaninov já aprisionou um arco-íris dentro de uma armadilha de espelhos e ajudou a criar a primeira camuflagem que torna um objeto realmente invisível.
A equipe de Xiang Zhang, da Universidade da Califórnia em Berkeley, apresentou uma lente de Luneburg capaz de focalizar plásmons de superfície, que são ondas de elétrons que surfam na superfície de metais.
Fonte: Nature Nanotechnology

terça-feira, 25 de janeiro de 2011

Grafite curvo controla o spin de elétrons

Uma equipe da Universidade de Copenhague, na Dinamarca, descobriu que tubos finos de grafite conseguem controlar a interação entre o movimento do elétron e uma propriedade da partícula conhecida como spin, feito que pode ter consequências para o desenvolvimento da nanoeletrônica.
ilustração do feixe de elétrons no grafite
©  Instituto Niels Bohr (ilustração do feixe de elétrons no grafite)
Na parte de cima da ilustração, o feixe de elétrons, sob influência da fina cama da grafite "curva". Abaixo, o comportamento anárquico em uma superfície plana. O movimento dos elétrons é mostrado, no cilindro, pelos círculos pretos e a 'direção' do spin, pelas barras vermelhas e brancas.
Trabalhando em parceria com pesquisadores japoneses, o grupo descobriu que quando a superfície do grafite está reta, não ocorre a influência do no spin dos elétrons. Mas quando o material é "enrolado", formando um cilindro, a interação entre o movimento dos elétrons e o spin acontece de forma orientada.
Ao fazer os elétrons se moverem no tubo de apenas poucos nanômetros de diâmetro, circulando a superfície de grafite, a "direção" do spin segue o alinhamento do tubo.
O grafite é feito de carbono, um dos principais elementos químicos conhecido e que forma desde organismos até diamantes. Um dos derivados do grafite é o grafeno, material semicondutor que rendeu o prêmio Nobel de Física de 2010 a André Geim e Konstantin Novoselov, por pesquisas realizadas seis anos antes.
O elemento também apresenta potencial para servir como base para componentes de computação como chips, com o desenvolvimento de materiais com espessura de átomos. Mas até a pesquisa do Instituto Niels Bohr surgir, o desenvolvimento de materiais com aproveitamento do spin eletrônicos era tido como duvidável, já que é difícil "controlar" e medir a propriedade.
O spin não é uma grandeza espacial como o comprimento ou a largura, mas é um valor que muda nas partículas fundamentais. No caso dos elétrons, a propriedade do spin está relacionada com a proximidade da partícula a um campo magnético.
Ao escolher um número definido de elétrons, os pesquisadores dinamarqueses conseguiram fazer o spin de elétrons ser alinhado com tubos feitos de carbono, com imperfeições e impurezas, o que representa situações mais próximas à realidade dos materiais.
O carbono apresenta também vantagens na comparação com outros elementos químicos como o ouro, no qual o movimento dos elétrons também influencia bastante o spin, mas sob o qual não é possível obter controle ao manipular em laboratório.
Fonte: Nature Physics

sábado, 15 de janeiro de 2011

Em busca de uma teoria unificada

A teoria da relatividade geral explica a gravidade. A mecânica quântica explica as forças nucleares e o eletromagnetismo. Conciliar as duas teorias é um dos maiores desafios para a Física.
supercordas
© Revista Física (ilustração das supercordas)
A solução mais eficiente até agora para unificar gravitação e mecânica quântica é a chamada teoria das supercordas, que está em plena construção. Nos últimos dez anos, o esforço internacional para promover avanços nessa área tem contado com a importante participação de pesquisadores ligados ao Projeto Temático "Pesquisa e ensino em teoria de cordas", financiado pela FAPESP.
Sob coordenação de Nathan Jacob Berkovits, professor titular do Instituto de Física Teórica (IFT) da Universidade Estadual Paulista (Unesp), o projeto é o terceiro realizado sobre o tema desde 2000. Naquele ano, Berkovits apresentou uma formulação matemática inovadora, desenvolvida ao longo de 15 anos, que ficou conhecida como “espinores puros”. Esse formalismo tem sido importante, na última década, para facilitar os cálculos relacionados ao estudo da teoria das supercordas. Em 2009, ele recebeu o Premio em Fisica de TWAS (Academia de Ciencias do Mundo em Desenvolvimento) em reconhecimento deste trabalho.
Desenvolvida a partir da década de 1960, a teoria das supercordas é um modelo físico no qual os compomentes fundamentais da matéria não são os pontos sem dimensão que caracterizavam as partículas subatômicas na física tradicional, mas objetos extensos unidimensionais, semelhantes a uma corda. Dependendo do “tom” da vibração dessas cordas, elas corresponderiam a cada partícula subatômica.
De acordo com Berkovits, o Projeto Temático, que envolve uma série de parcerias internacionais, tem explorado as aplicações dos espinores puros em várias frentes no desenvolvimento da teoria de supercordas.
“A teoria de supercordas é a tentativa mais bem sucedida até agora para unificar a gravitação e a mecânica quântica, teorias cuja conciliação corresponde a uma tarefa muito difícil. Os físicos teóricos também sonham que a teoria das supercordas possa unificar todas as forças e partículas fundamentais da natureza, mas isso, por enquanto, é apenas um sonho”, disse Berkovits.
Os avanços no campo teórico, no entanto, são bastante reais. O formalismo dos espinores puros tem sido a ferramenta mais apropriada para o estudo da correspondência AdS/CFT (sigla em inglês para espaço anti-de-Sitter / teoria do campo conformal), também conhecida como a conjectura de Maldacena.
Essa conjectura, proposta em 1997 pelo argentino Juan Maldacena (vencedor do prêmio Dirac, a mais importante premiação da área da Física depois do Prêmio Nobel), deu um impulso sem precedentes à teoria das supercordas e à pesquisa sobre a gravitação quântica. O artigo no qual Maldacena propôs a conjectura teve mais de 3 mil citações e se tornou um dos principais marcos conceituais da física teórica na década de 1990.
“Além de trabalharmos a aplicação dos espinores puros ao estudo da correspondência AdS/CFT, temos avançado na aplicação desse formalismo a outras frentes também, como o cálculo da amplitude de espalhamento”, contou Berkovits.
O estudo do espalhamento de cordas, que está relacionado ao espalhamento de partículas, enfrenta grandes dificuldades quando as partículas envolvidas são férmions. Todas as partículas elementares da matéria são férmions ou bósons, que têm spin semi-inteiros ou inteiros, respectivamente, e obedecem mecânicas estatísticas diferentes.
“Com a aplicação do formalismo dos espinores puros, o estudo do espalhamento de cordas envolvendo férmions não é mais difícil que os casos que envolvem bósons. Outra vertente na qual trabalhamos com a aplicação do formalismo dos espinores puros é a teoria de campos de cordas, que ainda está em estágio inicial de desenvolvimento”, explicou.
Quando uma partícula é descrita, utiliza-se uma variável que descreve a sua posição. Mas quando se trata de uma partícula com spin, como fótons ou elétrons, a variável da posição não é suficiente para a descrição.
Existem várias maneiras para descrever o spin e a mais tradicional foi o formalismo de Ramond-Neveu-Schwarz, concebido em 1973. Mais tarde, em 1980, foi desenvolvido o formalismo de Green-Schwarz, uma nova maneira de descrever o spin que trazia algumas vantagens. Mas trazia desvantagens também: ele não preservava a invariância de Lorentz, uma importante propriedade relacionada às rotações do espaço-tempo.
Desde 1980, portanto, os físicos teóricos vinham tentando resolver os problemas com o formalismo de Green-Schwarz. Até que em 2000 o formalismo dos espinores puros resolveu a questão da descrição do spin de partículas de uma maneira que preservava todas as simetrias presentes na teoria da relatividade.
Estima-se que existam atualmente cerca de 2 mil pesquisadores envolvidos com o estudo de teoria das supercordas. Berkovits tem trabalhado com cerca de 50 deles. O Projeto Temático que coordena se beneficia das conexões internacionais de seus pesquisadores participantes.
Fonte: Agência FAPESP

quarta-feira, 22 de dezembro de 2010

O vácuo pode criar matéria e antimatéria

Um feixe de laser de alta intensidade e um acelerador de partículas de dois quilômetros de extensão,  sob as condições adequadas, pode criar algo do nada.
energia gerada na aniquilação entre matéria e antimatéria
 © CERN (energia gerada na aniquilação entre matéria e antimatéria)
Um grupo formado por Igor Sokolov e seus colegas da Universidade de Michigan, nos Estados Unidos, desenvolveu novas equações que descrevem como um feixe de elétrons de alta energia, combinado com um intenso pulso de laser, pode rasgar o vácuo, liberando seus componentes fundamentais de matéria e antimatéria, e desencadear uma cascata de eventos que gera pares adicionais detectáveis de partículas e antipartículas.
Não é a primeira vez que cientistas afirmam que um super laser pode criar matéria do nada. De um nada que não é exatamente ausência de tudo, mas uma mistura fervilhante de ondas e campos de todos os tipos, onde partículas virtuais surgem e desaparecem o tempo todo.
Agora é possível calcular como, a partir de um único elétron, podem ser produzidas várias centenas de partículas. Isso deve acontecer na natureza, perto de pulsares e estrelas de nêutrons.
"É melhor dizer, acompanhando o físico teórico Paul Dirac, que um vácuo, ou um nada, é a combinação de matéria e antimatéria - partículas e antipartículas. Sua densidade é tremenda, mas não podemos perceber nada delas porque seus efeitos observáveis anulam-se completamente," disse Sokolov.
Em condições normais, matéria e antimatéria destroem-se mutuamente assim que entram em contato uma com a outra, emitindo raios gama. Mas sob um forte campo eletromagnético, este aniquilamento, que tipicamente funciona como um ralo de escoamento, pode ser a fonte de novas partículas. Na percurso da aniquilação, surgem fótons gama, que podem produzir elétrons e pósitrons adicionais.
Um fóton gama é uma partícula de luz de alta energia. Um pósitron é um anti-elétron, com as mesmas propriedades do elétron, mas com carga positiva.
Os que os cientistas calculam é que os fótons de raios gama produzirão uma reação em cadeia que poderá gerar partículas de matéria e antimatéria detectáveis.
Em um experimento, um campo de laser forte o suficiente irá gerar mais partículas do que as injetadas por meio de um acelerador de partículas.
No momento, não existe nenhum laboratório que tenha todas as condições necessárias - um super laser e um acelerador de partículas - para testar a teoria.
A questão básica do que é o vácuo transcende além da ciência, pois está incorporada na percepção filosófica da existência da vida.
Fonte: Physical Review Letters

terça-feira, 14 de dezembro de 2010

Síncroton compacto

Um grupo internacional de cientistas acaba de construir um equipamento compacto que é capaz de produzir luz síncrotron de raios X tão intensa quanto a que é gerada por alguns dos maiores laboratórios do mundo.
luz síncrotron - elétrons produzem radiação visível, raios X e ultravioleta
 © LNLS (luz síncrotron)
Os síncrotrons são aceleradores de elétrons, onde são gerados tipos especiais de luz, que são aplicadas em nanobiologia, farmacologia, energia, microeletrônica, alimentos, materiais e até paleontologia.
O instrumento poderá tornar muito mais simples e mais barato a tarefa de analisar materiais em áreas tão diversas como medicina e engenharia aeronáutica, além de possibilitar a aplicação da técnica em áreas onde hoje ela não é acessível.
Cada nova geração de máquinas de raios X tem aberto novas fronteiras na ciência, desde as primeiras radiografias até a determinação da estrutura do DNA (ácido desoxirribonucleico).
Hoje, os grandes síncrotrons fornecem aos pesquisadores de todas as áreas fontes extremamente brilhantes de raios X, capazes de gerar imagens com resoluções cada vez maiores.
No entanto, a sua dimensão e os custos envolvidos em sua instalação resultam na existência de apenas alguns poucos síncrotrons no mundo, e a demanda para sua utilização supera largamente a oferta.
O novo síncrotron de mesa, que foi desenvolvido por cientistas da França, Portugal, Reino Unido e EUA, funciona de forma semelhante a um síncrotron normal, mas em uma escala muito menor; todo o dispositivo está alojado em uma câmara de vácuo com cerca de um metro de diâmetro. E a qualidade dos raios X gerados é excelente; focalizados em um ponto muito preciso no espaço, os raios X gerados pelo síncrotron de mesa têm pulsos extremamente curtos, formando um feixe muito estreito, como pode ser visto na imagem a seguir, que mostra um diagrama da energia dos raios X em relação à divergência.
diagrama da energia dos raios X em relação à divergência
© Nature (diagrama da energia dos raios X em relação à divergência)
Quanto maior estreito for o feixe de raios X, mais finos serão os detalhes de um material que ele conseguirá captar.
Isto não é fácil de obter, e abre a possibilidade de que a fonte portátil permita o estudo de interações atômicas e moleculares ocorrendo em escalas de femtossegundos.
As propriedades inerentes deste sistema relativamente simples geram, em alguns milímetros, um feixe de raios X de alta qualidade que rivaliza com os feixes produzidos por fontes de síncrotron com centenas de metros de comprimento.
O Brasil está com um projeto em andamento para a construção de um acelerador de elétrons de terceira geração, o síncrotron Sírius, que será construído em Campinas, no interior de São Paulo, que terá um diâmetro de 146 metros e está orçado em R$350 milhões.
Fonte: Nature Physics