domingo, 20 de fevereiro de 2011

O primeiro antilaser é construído

O laser é uma invenção de mais de 50 anos de idade usado em diversas tecnologias. Recentemente, foi construído o antilaser, o primeiro aparelho capaz de prender e anular feixes de laser.
ondas de luz no antilaser
© Universidade de Yale (ondas de luz no antilaser)
Um antilaser consome a luz que o atinge, produzindo escuridão e calor. Sua aplicação poderá ocorrer provavelmente na próxima geração de computadores ópticos, que serão alimentados por luz e elétrons.
Um laser amplifica a luz e funciona como "meio de ganho", criando um feixe de fótons idênticos, uma onda de luz coerente, na qual todos os fótons têm a mesma frequência e amplitude e todos estão em fase.
A luz original é injetada em uma cavidade contendo um gás, situada entre dois espelhos. Os fótons alteram o estado quântico dos elétrons do gás, liberando outros fótons idênticos.
Com todos esses fótons refletindo-se de um lado para o outro entre os dois espelhos, e chocando-se com mais elétrons, cada vez mais fótons são liberados, todos idênticos, até criar um feixe brilhante de luz que escapa da armadilha.
É assim que as coisas funcionam quando a seta do tempo aponta para o futuro, como usual.
O que A. Douglas Stone e seus colegas da Universidade de Yale fizeram agora foi colocar o relógio para funcionar ao reverso, pegando a luz de um laser e convertendo-a em calor.
Como inverter todo o processo seria complicado demais, os pesquisadores tiveram a ideia de disparar dois feixes de laser, um na direção do outro, de forma que os dois se cancelassem perfeitamente.
Os dois feixes de laser foram dirigidos para uma "cavidade" que é na verdade uma pastilha de silício, que funciona como "meio de perda".
O silício alinha as ondas de luz de tal forma que elas ficam presas, refletindo-se entre suas paredes indefinidamente, até serem absorvidas e se transformarem em calor.
O antilaser de laser é chamado de tempo reverso ou CPA (Coherent Perfect Absorber). Não exatamente perfeito. O laser reverso de silício absorveu 99,4% da luz infravermelha do laser original, emitida em um comprimento de onda de 998,5 nanômetros, transformando-a em calor. Mas a teoria diz é possível chegar em 99,999% de absorção.
O protótipo do antilaser também ainda não tem o tamanho ideal. Ele mede 1 centímetro de lado, embora os cálculos indiquem que o ideal seria uma pastilha de 6 micrômetros.
A equipe também espera conseguir ajustar o dispositivo para que ele seja capaz de absorver lasers que emitem luz na faixa visível do espectro, assim como nas faixas específicas do infravermelho utilizadas em comunicações por fibra óptica.
Segundo os cientistas, ele poderá ser usado, no futuro, em chaves ópticas, sensores e até em uma próxima geração de computadores, os chamados computadores ópticos.
Como os dados nos processadores ópticos serão transferidos por luz, poderá ser necessário recolher o dado óptico e enviá-lo para um processamento externo, fora do chip. O antilaser poderá fazer isto.
Outra possibilidade é na radiologia, onde o princípio do laser reverso poderá ser usado para dirigir a radiação eletromagnética com precisão para um ponto específico no interior dos tecidos humanos, apesar da opacidade desses tecidos.
Fonte: Science

quarta-feira, 16 de fevereiro de 2011

Transístor de plástico flexível

Na busca pelo desenvolvimento de aparelhos eletrônicos flexíveis, um dos maiores obstáculos tem sido a criação de transistores com estabilidade suficiente para funcionar em vários ambientes.
transístor de plástico dobrável
© Gatech (transístor de plástico dobrável)
A diferença entre o frio seco e congelado do norte da Europa e o calor úmido dos trópicos tem sido demais para a eletrônica orgânica, cujos componentes flexíveis são feitos basicamente de plástico.
Agora, pesquisadores do Instituto de Tecnologia da Geórgia, nos Estados Unidos, desenvolveram uma técnica que combina os transistores orgânicos de efeito de campo com uma porta isolante de duas camadas.
Isto permite que o transístor funcione com uma estabilidade sem precedentes e com um nível adequado de desempenho, que não depende apenas dos semicondutores propriamente ditos, mas também da interface entre os semicondutores e as portas dielétricas, ou isolantes.
O novo transístor orgânico pode ser produzido em massa, com técnicas industriais, em uma atmosfera normal, pois a fabricação em temperaturas mais baixas é essencial para que o componente seja compatível com os dispositivos de plástico em que deverá funcionar.
A bicamada dielétrica é feita de um polímero fluorado, conhecido como CYTOP, e de uma camada de óxido metálico de elevada constante dielétrica, criada por deposição de camadas atômicas.
Quando usadas isoladamente, cada uma dessas substâncias tem suas vantagens e desvantagens.
O CYTOP é conhecido por formar poucos defeitos na interface do semicondutor orgânico, mas também tem uma constante dielétrica muito baixa, o que requer um aumento na tensão de funcionamento.
O metal-óxido de k elevado utiliza baixa tensão, mas não tem boa estabilidade por causa de um elevado número de defeitos na interface.
Bernard Kippelen e sua equipe descobriram que a combinação dos dois materiais anula em grande parte os defeitos das substâncias isoladas. Anteriormente, a equipe de Kippelen já havia construído um transístor orgânico usando carbono 60.
ciclos de funcionamento dos transístores
© Advanced Materials (ciclos de funcionamento dos transístores)
Os transistores sobreviveram a mais de 20.000 ciclos de funcionamento, sem nenhuma degradação, mesmo quando foram submetidos ao dobro da sua corrente nominal. Mesmo dentro de uma câmara de plasma eles funcionaram por cinco minutos sem degradação.
Fonte: Advanced Materials

segunda-feira, 14 de fevereiro de 2011

Temperaturas abaixo do zero absoluto podem ser alcançadas?

O zero absoluto é um limite inviolável para além do qual é impossível explorar. De fato, há um reino estranho de temperaturas negativas, que não só existe na teoria, mas também se mostrou acessível na prática, e poderia revelar novos estados da matéria.
temperaturas absolutas negativas são mais quentes
© NewScientist (temperaturas absolutas negativas)
A temperatura é definida pela forma como a adição ou a remoção de energia afeta a quantidade de desordem, ou entropia, em um sistema.
Para os sistemas nas temperaturas positivas com as quais estamos acostumados, o acréscimo de energia aumenta a desordem: aquecer um cristal de gelo vai fazer com que ele se derreta em um líquido mais desordenado, por exemplo.
Continue a remover energia e você vai chegar cada vez mais perto do zero na escala absoluta, ou escala Kelvin, que é -273,15 °C, onde a energia do sistema e a entropia estarão no mínimo.
Sistemas de temperatura negativa, entendidas como abaixo do zero absoluto, têm comportamento oposto: acrescentar energia reduz sua desordem e, portanto, sua temperatura.
Mas eles não são frios no sentido convencional de que o calor irá fluir para eles a partir de sistemas com temperaturas positivas.
Na verdade, os sistemas com temperaturas absolutas negativas têm mais átomos em estados de alta energia do que é possível mesmo nas mais elevadas temperaturas na escala das "absolutas positivas".
Assim, o calor deve sempre fluir deles para os sistemas acima de zero Kelvin.
Criar sistemas de temperatura negativa para estudar as propriedades desse mundo bizarro, contudo, pode ser complicado.
Não dá para criá-los de maneira suave e contínua, sempre baixando a temperatura, já que não será possível romper a barreira do zero absoluto da maneira usual.
Mas é possível saltar sobre essa barreira, passando diretamente de uma determinada temperatura absoluta positiva (acima do zero absoluto) para uma temperatura absoluta negativa (abaixo do zero absoluto).
Isso já foi feito em experimentos nos quais núcleos atômicos foram colocados em um campo magnético, sob o qual eles agem como minúsculos ímãs, alinhando-se com o campo.
Quando o campo é subitamente revertido, os núcleos ficam momentaneamente alinhados na direção oposta àquela que corresponde ao seu menor estado de energia.
Na fração de tempo em que permanecem nesse estado fugaz, eles se comportam de forma coerente com a de um sistema com temperaturas absolutas negativas. Logo após eles se viram e se realinham com o campo.
esquema da entropia em função da energia
© Physical Review Letters (entropia em função da energia)
Como os núcleos só podem alternar entre dois estados possíveis, paralelo ao campo ou oposto a ele, este sistema oferece poucas possibilidades para investigação.
Em 2005, Allard Mosk, atualmente na Universidade de Twente, na Holanda, idealizou um experimento que poderia oferecer mais possibilidades de estudos do regime de temperaturas negativas.
Primeiro, lasers são usados para agrupar os átomos até formar uma bola muito coesa, que estaria em um estado altamente ordenado, ou de baixa entropia.
Outros lasers são então disparados sobre a bola de átomos para criar uma matriz de luz, a chamada grade óptica, que circundaria a bola de átomos com uma série de "poços" de baixa energia. O primeiro conjunto de lasers é então reajustado de modo que eles passam a tentar desconstruir a bola de átomos. Isso deixa os átomos em um estado instável, como se estivessem equilibrados no pico de uma montanha, prestes a rolar ladeira abaixo. A grade óptica funciona como uma série de fendas ao longo da montanha, travando a "descida" dos átomos montanha abaixo.
Neste estado, remover parte da energia potencial dos átomos, levando-os a rolar e se distanciar uns dos outros, levaria a uma maior desordem, a exata definição de um sistema de temperaturas absolutas negativas.
Agora a ideia de Mosk foi refinada por Achim Rosch e seus colegas da Universidade de Colônia, na Alemanha.
A nova proposta de experimento é essencialmente a mesma, mas os cálculos de Rosch e sua equipe dão mais fundamento à ideia, sustentando que ela é realmente factível.
O grande avanço, contudo, é que eles sugerem uma maneira de testar se o experimento realmente produzirá temperaturas negativas absolutas.
Como os átomos no estado de temperaturas negativas têm energias relativamente altas, eles deverão se mover mais rapidamente quando liberados da armadilha do que ocorrerá com uma nuvem de átomos com temperatura positiva.
Este é um território desconhecido, nunca antes explorado, com grande potencial para revelar surpresas.
Fonte: NewScientist e Physical Review Letters

terça-feira, 8 de fevereiro de 2011

Descoberto novo estado quântico da água

As características estranhas da água poderiam ser pelo menos parcialmente explicadas pela mecânica quântica.
modelo quântico da molécula de água
©  P. J. MacDougall (modelo quântico da molécula de água)
Essa é a afirmação feita por um grupo de físicos do Reino Unido e Estados Unidos, que fizeram medições extremamente sensíveis dos prótons em pequenas amostras de água e descobriram que essas partículas de prótons se comportam de forma muito diferente às de amostra muito maior.
A água tem uma série de propriedades que o distinguem de outras substâncias e que a tornam particularmente adequadas para sustentar a vida. Por exemplo, o fato de que a água em estado sólido é menos densa do que em estado líquido e que sua densidade máxima ocorre aos 4°C significa que os lagos congelam de cima para baixo, algo que era vital para a manutenção vida durante as eras glaciais na Terra.
No mais recente trabalho, George Reiter e seus colegas, da Universidade de Houston (EUA) focalizou na ligação de hidrogênio, que é a chave para as propriedades incomuns da água. Esta ponte de hidrogênio nas moléculas de água é caracterizada pela conexão do átomo de oxigênio de uma molécula com o átomo de hidrogênio de outra. As ligações de hidrogênio são normalmente consideradas principalmente como um fenômeno eletrostático, ou seja, que a água consiste de moléculas discretas ligadas entre si através de cargas positivas e negativas (que residem nos átomos de hidrogênio e oxigênio, respectivamente).
diagrama molecular de água líquida
© PhysicsWorld (diagrama molecular de água líquida)
Esta imagem simples é capaz de explicar algumas das características da água, tais como a sua estrutura, cujas previsões do modelo são coerentes com os resultados experimentais de espalhamento de nêutrons, que revelam quão distantes em média, um átomo de oxigênio está em relação ao seguinte. 
O que Reiter e sua equipe descobriram é que este modelo eletrostático não pode ser usado para prever as energias de prótons individuais dentro de moléculas de água. Eles chegaram a essa conclusão depois de confinar a água dentro de nanotubos de carbono de 1,6 nm de diâmetro e, em seguida, expor esses nanotubos à fonte de nêutrons de alta energia ISIS no laboratório Rutherford Appleton, no Reino Unido. O ISIS é um acelerador de prótons, cuja energia é de 800 MeV, produzindo intensos pulsos de 50 prótons por segundo.
A distribuição do momento dos prótons é fortemente dependente da temperatura, apresentando uma energia cinética 50% maior do que o previsto pelo modelo eletrostático em temperaturas baixas, e 20% maior a temperatura ambiente. O modelo eletrostático dá previsões razoavelmente precisas apenas para a água em grande volume a temperatura ambiente.
A equipe alega que isso é prova de que os prótons existem em um estado quântico observado anteriormente, quando a água está confinada a um volume muito pequeno, um estado que não é descrito pelo modelo eletrostático. Eles dizem que enquanto a distâncias de 0,1 nm que as moléculas geralmente separam apenas o potencial intermolecular também exerce uma força significativa, na escala de 0,01 nm, típico de um próton indivíduo potenciais flutuações quânticas também responsável que ocorrem ao longo das ligações de hidrogênio se tornam significativos. Desta forma, as ligações de hidrogênio apresentam flutuações quânticas e formam o que é conhecido como uma "rede eletrônica conectada", que provavelmente é a resposta ao confinamento que gera as grandes mudanças na energia dos prótons. 
Os pesquisadores confirmaram esta discrepância utilizando outros materiais. Por exemplo, eles descobriram que quando a água estava confinada dentro do material industrial nafion, uma membrana trocadora de prótons, utilizado em células a combustível, os prótons tinham quase o dobro da energia cinética da água bruta. Eles também descobriram que, ao usar nanotubos de carbono de 1,4 nm de diâmetro, de parede simples, a distribuição foi de 30% menos da energia cinética do que na água a granel.
Segundo Reiter, esse novo estado quântico pode ser importante para a vida porque o comprimento dos nanotubos usados para confinar a água nos experimentos, cerca de 2 nanômetros, é mais ou menos semelhante às distâncias entre as estruturas no interior das células biológicas. A mecânica quântica dos prótons na água sempre exerceu um papel no desenvolvimento da vida celular, mas nunca havia sido notado anteriormente.
Reiter acredita também que a pesquisa do seu grupo poderia ter aplicações práticas, tais como a melhoria do desempenho das células a combustível.
Sow-Hsin Chen, do Instituto de Tecnologia de Massachusetts, que não tomou parte na pesquisa atual, concorda que os resultados do experimento implicaria que o padrão das ligações de hidrogênio em águas confinadas pode ser bastante diferente do que na água bruta, e diz que o próximo passo é realizar simulações de mecânica quântica para descobrir como isso afeta as propriedades da água confinada. Mas ele adverte que nem todas as propriedades da água são necessariamente explicável usando a mecânica quântica em alguns casos poderia ser melhor explicada usando mecânica estatística.
Fonte: PhysicsWorld

sexta-feira, 28 de janeiro de 2011

Lente de Luneburg é criada

Físicos do Reino Unido criaram uma lente de Luneburg, uma lente capaz de focalizar a luz em todas as direções, no interior de uma pastilha de silício.
lente de luneburg
©  Instituto Niels Bohr (ilustração do feixe de elétrons no grafite)
A maioria das lentes tem aberrações, o que significa que sua capacidade de focalizar a luz se deteriora quando a luz incidente está fora do eixo.
Mas na lente de Luneburg, proposta teoricamente há mais de 60 anos, a focalização funciona sempre da mesma forma, com a mesma qualidade, não importando de onde a luz esteja vindo.
O componente deverá ter aplicações em optoeletrônica, na chamada óptica de Fourier, usada pela indústria de telecomunicações para a redução de ruídos nas transmissões e para a compressão de dados.
Mas criar uma lente de Luneburg se mostrou algo complicado. Essas lentes exigem que o índice de refração, a propriedade que determina como a luz é desviada por uma lente, varie ao longo do dispositivo, com um máximo de √2 (aproximadamente 1,4) maior do que o mínimo.
Com tecnologia atual é impossível dopar um material com impurezas para atingir esse nível de contraste do índice de refração.
Outros cientistas tentaram fazer versões aproximadas da lente de Luneburg no passado, mas nunca alcançaram o resultado esperado.
Agora, Ulf Leonhardt e seus colegas da Universidade de St. Andrews criaram uma lente Luneburg para a luz infravermelha usando um guia de ondas de silício.
"Acreditava-se ser impossível construir uma lente de Luneburg no espectro visível ou próximo dele, a um custo razoável", comentou Juan Miñano, da Universidade Politécnica de Madrid, que não estava envolvido com a pesquisa.
O dispositivo criado por Leonhardt e seus colegas é um pedaço de silício microscópico, com a forma de uma lente de contato, servindo de recheio para duas camadas grossas de polímero e sílica, tudo posto sobre um substrato.
Quando os pesquisadores disparam um feixe de luz com um comprimento de onda de 1.575 nanômetros rumo ao dispositivo, a luz cobre a interface entre o polímero e a sílica, até atingir a lente, onde fica fortemente confinada.
Na verdade, a geometria da lente cria um perfil de índice de refração efetivo que varia de 1,4 a 2,8, focando o feixe em um ponto com 3.770 nanômetros de diâmetro.
Para uma lente de Luneburg ideal, este ponto focal deveria ter a metade do comprimento de onda, ou cerca de 800 nanômetros, quase cinco vezes menor do que os cientistas obtiveram.
Leonhardt afirma que a discrepância se deve a limitações da óptica, e que um feixe de luz que abrangesse toda a lente, e não apenas uma parte dela, produziria uma resolução melhor.
Igor Smolyaninov, pesquisador da Universidade de Maryland, nos EUA, que também trabalha com novos tipos de lentes, acha que a lente de Luneburg baseada em um guia de ondas é um resultado importante.
Smolyaninov já aprisionou um arco-íris dentro de uma armadilha de espelhos e ajudou a criar a primeira camuflagem que torna um objeto realmente invisível.
A equipe de Xiang Zhang, da Universidade da Califórnia em Berkeley, apresentou uma lente de Luneburg capaz de focalizar plásmons de superfície, que são ondas de elétrons que surfam na superfície de metais.
Fonte: Nature Nanotechnology

terça-feira, 25 de janeiro de 2011

Grafite curvo controla o spin de elétrons

Uma equipe da Universidade de Copenhague, na Dinamarca, descobriu que tubos finos de grafite conseguem controlar a interação entre o movimento do elétron e uma propriedade da partícula conhecida como spin, feito que pode ter consequências para o desenvolvimento da nanoeletrônica.
ilustração do feixe de elétrons no grafite
©  Instituto Niels Bohr (ilustração do feixe de elétrons no grafite)
Na parte de cima da ilustração, o feixe de elétrons, sob influência da fina cama da grafite "curva". Abaixo, o comportamento anárquico em uma superfície plana. O movimento dos elétrons é mostrado, no cilindro, pelos círculos pretos e a 'direção' do spin, pelas barras vermelhas e brancas.
Trabalhando em parceria com pesquisadores japoneses, o grupo descobriu que quando a superfície do grafite está reta, não ocorre a influência do no spin dos elétrons. Mas quando o material é "enrolado", formando um cilindro, a interação entre o movimento dos elétrons e o spin acontece de forma orientada.
Ao fazer os elétrons se moverem no tubo de apenas poucos nanômetros de diâmetro, circulando a superfície de grafite, a "direção" do spin segue o alinhamento do tubo.
O grafite é feito de carbono, um dos principais elementos químicos conhecido e que forma desde organismos até diamantes. Um dos derivados do grafite é o grafeno, material semicondutor que rendeu o prêmio Nobel de Física de 2010 a André Geim e Konstantin Novoselov, por pesquisas realizadas seis anos antes.
O elemento também apresenta potencial para servir como base para componentes de computação como chips, com o desenvolvimento de materiais com espessura de átomos. Mas até a pesquisa do Instituto Niels Bohr surgir, o desenvolvimento de materiais com aproveitamento do spin eletrônicos era tido como duvidável, já que é difícil "controlar" e medir a propriedade.
O spin não é uma grandeza espacial como o comprimento ou a largura, mas é um valor que muda nas partículas fundamentais. No caso dos elétrons, a propriedade do spin está relacionada com a proximidade da partícula a um campo magnético.
Ao escolher um número definido de elétrons, os pesquisadores dinamarqueses conseguiram fazer o spin de elétrons ser alinhado com tubos feitos de carbono, com imperfeições e impurezas, o que representa situações mais próximas à realidade dos materiais.
O carbono apresenta também vantagens na comparação com outros elementos químicos como o ouro, no qual o movimento dos elétrons também influencia bastante o spin, mas sob o qual não é possível obter controle ao manipular em laboratório.
Fonte: Nature Physics

sábado, 15 de janeiro de 2011

Em busca de uma teoria unificada

A teoria da relatividade geral explica a gravidade. A mecânica quântica explica as forças nucleares e o eletromagnetismo. Conciliar as duas teorias é um dos maiores desafios para a Física.
supercordas
© Revista Física (ilustração das supercordas)
A solução mais eficiente até agora para unificar gravitação e mecânica quântica é a chamada teoria das supercordas, que está em plena construção. Nos últimos dez anos, o esforço internacional para promover avanços nessa área tem contado com a importante participação de pesquisadores ligados ao Projeto Temático "Pesquisa e ensino em teoria de cordas", financiado pela FAPESP.
Sob coordenação de Nathan Jacob Berkovits, professor titular do Instituto de Física Teórica (IFT) da Universidade Estadual Paulista (Unesp), o projeto é o terceiro realizado sobre o tema desde 2000. Naquele ano, Berkovits apresentou uma formulação matemática inovadora, desenvolvida ao longo de 15 anos, que ficou conhecida como “espinores puros”. Esse formalismo tem sido importante, na última década, para facilitar os cálculos relacionados ao estudo da teoria das supercordas. Em 2009, ele recebeu o Premio em Fisica de TWAS (Academia de Ciencias do Mundo em Desenvolvimento) em reconhecimento deste trabalho.
Desenvolvida a partir da década de 1960, a teoria das supercordas é um modelo físico no qual os compomentes fundamentais da matéria não são os pontos sem dimensão que caracterizavam as partículas subatômicas na física tradicional, mas objetos extensos unidimensionais, semelhantes a uma corda. Dependendo do “tom” da vibração dessas cordas, elas corresponderiam a cada partícula subatômica.
De acordo com Berkovits, o Projeto Temático, que envolve uma série de parcerias internacionais, tem explorado as aplicações dos espinores puros em várias frentes no desenvolvimento da teoria de supercordas.
“A teoria de supercordas é a tentativa mais bem sucedida até agora para unificar a gravitação e a mecânica quântica, teorias cuja conciliação corresponde a uma tarefa muito difícil. Os físicos teóricos também sonham que a teoria das supercordas possa unificar todas as forças e partículas fundamentais da natureza, mas isso, por enquanto, é apenas um sonho”, disse Berkovits.
Os avanços no campo teórico, no entanto, são bastante reais. O formalismo dos espinores puros tem sido a ferramenta mais apropriada para o estudo da correspondência AdS/CFT (sigla em inglês para espaço anti-de-Sitter / teoria do campo conformal), também conhecida como a conjectura de Maldacena.
Essa conjectura, proposta em 1997 pelo argentino Juan Maldacena (vencedor do prêmio Dirac, a mais importante premiação da área da Física depois do Prêmio Nobel), deu um impulso sem precedentes à teoria das supercordas e à pesquisa sobre a gravitação quântica. O artigo no qual Maldacena propôs a conjectura teve mais de 3 mil citações e se tornou um dos principais marcos conceituais da física teórica na década de 1990.
“Além de trabalharmos a aplicação dos espinores puros ao estudo da correspondência AdS/CFT, temos avançado na aplicação desse formalismo a outras frentes também, como o cálculo da amplitude de espalhamento”, contou Berkovits.
O estudo do espalhamento de cordas, que está relacionado ao espalhamento de partículas, enfrenta grandes dificuldades quando as partículas envolvidas são férmions. Todas as partículas elementares da matéria são férmions ou bósons, que têm spin semi-inteiros ou inteiros, respectivamente, e obedecem mecânicas estatísticas diferentes.
“Com a aplicação do formalismo dos espinores puros, o estudo do espalhamento de cordas envolvendo férmions não é mais difícil que os casos que envolvem bósons. Outra vertente na qual trabalhamos com a aplicação do formalismo dos espinores puros é a teoria de campos de cordas, que ainda está em estágio inicial de desenvolvimento”, explicou.
Quando uma partícula é descrita, utiliza-se uma variável que descreve a sua posição. Mas quando se trata de uma partícula com spin, como fótons ou elétrons, a variável da posição não é suficiente para a descrição.
Existem várias maneiras para descrever o spin e a mais tradicional foi o formalismo de Ramond-Neveu-Schwarz, concebido em 1973. Mais tarde, em 1980, foi desenvolvido o formalismo de Green-Schwarz, uma nova maneira de descrever o spin que trazia algumas vantagens. Mas trazia desvantagens também: ele não preservava a invariância de Lorentz, uma importante propriedade relacionada às rotações do espaço-tempo.
Desde 1980, portanto, os físicos teóricos vinham tentando resolver os problemas com o formalismo de Green-Schwarz. Até que em 2000 o formalismo dos espinores puros resolveu a questão da descrição do spin de partículas de uma maneira que preservava todas as simetrias presentes na teoria da relatividade.
Estima-se que existam atualmente cerca de 2 mil pesquisadores envolvidos com o estudo de teoria das supercordas. Berkovits tem trabalhado com cerca de 50 deles. O Projeto Temático que coordena se beneficia das conexões internacionais de seus pesquisadores participantes.
Fonte: Agência FAPESP

quarta-feira, 22 de dezembro de 2010

O vácuo pode criar matéria e antimatéria

Um feixe de laser de alta intensidade e um acelerador de partículas de dois quilômetros de extensão,  sob as condições adequadas, pode criar algo do nada.
energia gerada na aniquilação entre matéria e antimatéria
 © CERN (energia gerada na aniquilação entre matéria e antimatéria)
Um grupo formado por Igor Sokolov e seus colegas da Universidade de Michigan, nos Estados Unidos, desenvolveu novas equações que descrevem como um feixe de elétrons de alta energia, combinado com um intenso pulso de laser, pode rasgar o vácuo, liberando seus componentes fundamentais de matéria e antimatéria, e desencadear uma cascata de eventos que gera pares adicionais detectáveis de partículas e antipartículas.
Não é a primeira vez que cientistas afirmam que um super laser pode criar matéria do nada. De um nada que não é exatamente ausência de tudo, mas uma mistura fervilhante de ondas e campos de todos os tipos, onde partículas virtuais surgem e desaparecem o tempo todo.
Agora é possível calcular como, a partir de um único elétron, podem ser produzidas várias centenas de partículas. Isso deve acontecer na natureza, perto de pulsares e estrelas de nêutrons.
"É melhor dizer, acompanhando o físico teórico Paul Dirac, que um vácuo, ou um nada, é a combinação de matéria e antimatéria - partículas e antipartículas. Sua densidade é tremenda, mas não podemos perceber nada delas porque seus efeitos observáveis anulam-se completamente," disse Sokolov.
Em condições normais, matéria e antimatéria destroem-se mutuamente assim que entram em contato uma com a outra, emitindo raios gama. Mas sob um forte campo eletromagnético, este aniquilamento, que tipicamente funciona como um ralo de escoamento, pode ser a fonte de novas partículas. Na percurso da aniquilação, surgem fótons gama, que podem produzir elétrons e pósitrons adicionais.
Um fóton gama é uma partícula de luz de alta energia. Um pósitron é um anti-elétron, com as mesmas propriedades do elétron, mas com carga positiva.
Os que os cientistas calculam é que os fótons de raios gama produzirão uma reação em cadeia que poderá gerar partículas de matéria e antimatéria detectáveis.
Em um experimento, um campo de laser forte o suficiente irá gerar mais partículas do que as injetadas por meio de um acelerador de partículas.
No momento, não existe nenhum laboratório que tenha todas as condições necessárias - um super laser e um acelerador de partículas - para testar a teoria.
A questão básica do que é o vácuo transcende além da ciência, pois está incorporada na percepção filosófica da existência da vida.
Fonte: Physical Review Letters

terça-feira, 14 de dezembro de 2010

Síncroton compacto

Um grupo internacional de cientistas acaba de construir um equipamento compacto que é capaz de produzir luz síncrotron de raios X tão intensa quanto a que é gerada por alguns dos maiores laboratórios do mundo.
luz síncrotron - elétrons produzem radiação visível, raios X e ultravioleta
 © LNLS (luz síncrotron)
Os síncrotrons são aceleradores de elétrons, onde são gerados tipos especiais de luz, que são aplicadas em nanobiologia, farmacologia, energia, microeletrônica, alimentos, materiais e até paleontologia.
O instrumento poderá tornar muito mais simples e mais barato a tarefa de analisar materiais em áreas tão diversas como medicina e engenharia aeronáutica, além de possibilitar a aplicação da técnica em áreas onde hoje ela não é acessível.
Cada nova geração de máquinas de raios X tem aberto novas fronteiras na ciência, desde as primeiras radiografias até a determinação da estrutura do DNA (ácido desoxirribonucleico).
Hoje, os grandes síncrotrons fornecem aos pesquisadores de todas as áreas fontes extremamente brilhantes de raios X, capazes de gerar imagens com resoluções cada vez maiores.
No entanto, a sua dimensão e os custos envolvidos em sua instalação resultam na existência de apenas alguns poucos síncrotrons no mundo, e a demanda para sua utilização supera largamente a oferta.
O novo síncrotron de mesa, que foi desenvolvido por cientistas da França, Portugal, Reino Unido e EUA, funciona de forma semelhante a um síncrotron normal, mas em uma escala muito menor; todo o dispositivo está alojado em uma câmara de vácuo com cerca de um metro de diâmetro. E a qualidade dos raios X gerados é excelente; focalizados em um ponto muito preciso no espaço, os raios X gerados pelo síncrotron de mesa têm pulsos extremamente curtos, formando um feixe muito estreito, como pode ser visto na imagem a seguir, que mostra um diagrama da energia dos raios X em relação à divergência.
diagrama da energia dos raios X em relação à divergência
© Nature (diagrama da energia dos raios X em relação à divergência)
Quanto maior estreito for o feixe de raios X, mais finos serão os detalhes de um material que ele conseguirá captar.
Isto não é fácil de obter, e abre a possibilidade de que a fonte portátil permita o estudo de interações atômicas e moleculares ocorrendo em escalas de femtossegundos.
As propriedades inerentes deste sistema relativamente simples geram, em alguns milímetros, um feixe de raios X de alta qualidade que rivaliza com os feixes produzidos por fontes de síncrotron com centenas de metros de comprimento.
O Brasil está com um projeto em andamento para a construção de um acelerador de elétrons de terceira geração, o síncrotron Sírius, que será construído em Campinas, no interior de São Paulo, que terá um diâmetro de 146 metros e está orçado em R$350 milhões.
Fonte: Nature Physics

quinta-feira, 9 de dezembro de 2010

Raio laser simula radiação de buracos negros

Uma equipe de cientistas italianos disparou um feixe de laser em um pedaço de vidro para criar o que eles acreditam ser um análogo óptico da radiação de Hawking, que parece ser emitida pelos buracos negros. A seguir um aparato experimental para detectar a radiação de Hawking.
experimento para detectar a radiação Hawking
©  PRL (experimento para detectar a radiação de Hawking)
Embora a potência do experimento com o laser nem se compare com os densos buracos negros, as teorias matemáticas utilizadas para descrever os dois casos são semelhantes o suficiente para que a confirmação da radiação de Hawking induzida pelo laser permita reforçar a confiança em que os buracos negros de fato emitam a radiação de Hawking.
Em 1974, Stephen Hawking previu a emissão de uma radiação pelos buracos negros, que seria produzida pela geração espontânea de fótons na fronteira desses corpos enigmáticos. Mas os cálculos indicam que ela é tão fraca que muitos físicos acreditam ser virtualmente impossível detectá-la.
Desta forma, a única maneira de testar a teoria de Hawking é fazer experimentos de laboratório que possam servir como análogos da situação real, impossível de ser observada.
Outros pesquisadores já haviam usado lasers para simular a radiação de Hawking, mas encontraram dificuldades em isolá-la de outras formas de luz emitidas durante os experimentos.
Belgiorno Franco e seus colegas idealizaram seu experimento combinando um feixe de laser ajustável com um alvo de vidro grosso, o que lhes permitiu limitar a radiação de Hawking a determinados comprimentos de onda da luz infravermelha e capturá-la com uma câmera infravermelha muito sensível.
A radiação calculada pela teoria foi de fato emitida e capturada pela câmera infravermelha, o que pode tornar o experimento uma demonstração indireta da radiação de Hawking, reforçando as atuais teorias. A seguir o diagrama mostra cinco curvas do espectro gerado por um  pulso Gaussiano (linha preta) e energias Bessel em μJ (microjoules), indicando a contagem de fotoelétrons em função do comprimento de onda.
espectros da contagem de fotoelétrons em função do comprimento de onda 
©  PRL (espectros de fotoelétrons x comprimento de onda)
A existência da radiação de Hawking também coloca um limite para a vida dos buracos negros: se eles emitem radiação, por maior que seja sua massa, ela poderá se exaurir, ainda que isso leve um tempo difícil de calcular, embora alguns cientistas afirmem que é possível imaginar um buraco negro eterno.
Fonte: Physical Review Letters

quarta-feira, 8 de dezembro de 2010

O diodo quântico além do silício

Pesquisadores da Universidade do Estado de Oregon, nos Estados Unidos, construíram um novo componente eletrônico que vinha desafiando a ciência há quase 50 anos.
diodo mim
© Advanced Materials (diodo MIM)
Douglas Keszler e seus colegas construíram um diodo MIM (metal-isolante-metal), que poderá se tornar a base para uma nova abordagem na construção de circuitos eletrônicos.
Os circuitos eletrônicos são feitos com materiais à base de silício, usando transistores que funcionam controlando o fluxo dos elétrons.
Apesar de rápidos e relativamente baratos, esses componentes eletrônicos são limitados pela velocidade com que os elétrons podem mover-se através do silício e de outros materiais que entram em sua composição
Em contrapartida, um diodo MIM pode ser usado para executar algumas das funções dos componentes atuais, mas de uma forma fundamentalmente diferente.
A grande vantagem é que os elétrons não têm que se mover através dos materiais, eles simplesmente tunelam através do isolante, aparecendo quase que instantaneamente do outro lado.
O tunelamento quântico é um efeito quântico que permite que um elétron, ou outra partícula, atravesse diretamente uma barreira. Isso é possível porque os elétrons apresentam comportamento tanto de partícula quanto de onda.
Os cientistas utilizaram um contato metálico amorfo para resolver os problemas que até hoje impediam a realização dos diodos MIM. O material isolante é o tradicional óxido de silício (SiO2).
Até agora os cientistas vinham usando principalmente o alumínio, que produz uma superfície relativamente rugosa em nanoescala. A equipe de Keszler optou por uma liga metálica (ZrCuAlNi) que produz filmes finos extremamente lisos, que permite o controle muito mais preciso do fluxo de elétrons.
Segundo os pesquisadores, os diodos foram fabricados "a temperaturas relativamente baixas", usando técnicas que podem ser ampliadas para uso em uma grande variedade de substratos e em pastilhas de grandes dimensões.
O diodo MIM poderá ser usado com uma grande variedades de metais baratos e largamente disponíveis, como cobre, níquel ou alumínio. Ele é também muito mais simples, mais barato e mais fácil de fabricar.
Há muito tempo é procurado algo que possibilite levar além do silício. E quando esses produtos começarem a emergir, os ganhos na velocidade de operação dos circuitos será enorme.
Fonte: Advanced Materials

quinta-feira, 25 de novembro de 2010

Um novo estado para partículas de luz

Físicos da Universidade de Bonn criaram um novo tipo de fonte de luz, um condensado de Bose-Einstein consistindo de fótons. Até recentemente, acreditava-se que reduzir partículas de luz a esse estado seria impossível. O método poderá ser útil para a criação de fontes de radiação semelhantes aos raios laser, mas na faixa de frequência dos raios X.
superfóton
© Jan Klaers, Universidade de Bonn (ilustração de um superfóton)
O condensado de Bose-Einstein surge quando um conjunto de partículas é resfriado até o ponto em que todas assumem características idênticas, de forma que o grupo passa a se comportar como uma única "superpartícula".
O processo já havia sido realizado com sucesso em átomos e também era teoricamente possível de se executar com luz, mas as dificuldades técnicas para condensar partículas de luz eram enormes, já que os fótons simplesmente desaparecem quando a temperatura cai demais.
Os pesquisadores alemães usaram dois espelhos, entre os quais um raio de luz era mantido, refletindo-se de um lado para o outro. Entre os espelhos, foram dissolvidos pigmentos que absorviam e liberavam os fótons. A seguir a imagem mostra a distribuição espacial da radiação durante a formação do condensado de Bose-Einstein.
distribuição espacial da radiação
© Nature (distribuição espacial da radiação)
No processo, os fótons assumiram a temperatura do fluido. Eles se resfriaram até a temperatura ambiente, sem se perder no processo.
Os físicos então aumentaram a quantidade de fótons entre os espelhos, excitando os pigmentos com um laser. Isso permitiu que a luz resfriada se concentrasse de forma tão intensa que acabou gerando um "supérfóton".
Tecnologicamente, isso poderá ser útil para criadores de chips de computador, já que um laser com comprimento de onda muito baixo, como o dos raios X, poderia entalhar padrões extremamente detalhados e precisos no silício.
Fonte: Nature

quinta-feira, 18 de novembro de 2010

Átomos de antimatéria são criados e armazenados pela primeira vez

Pela primeira vez, cientistas conseguiram não só produzir como estocar e liberar, de forma controlada, átomos de antihidrogênio, a versão em antimatéria dos átomos de hidrogênio, os mais simples encontrados na natureza. Esta tecnologia possibilitou criar e aprisionar, por 170 milissegundos, pelo menos 38 átomos da antimatéria do hidrogênio. O resultado foi obtido depois de 335 rodadas do experimento, misturando 10 milhões de antiprótons e 700 milhões de pósitrons.
 detalhe do equipamento usado no experimento
© CERN (detalhe do equipamento usado no experimento)
Antimatéria é composta por partículas idênticas às da matéria comum, mas dotadas de carga elétrica oposta. Os antiprótons têm carga negativa e os antielétrons, ou pósitrons, carga positiva.
Os átomos de antihidrogênio já haviam sido criados anteriormente, mas até agora tinha sido impossível isolá-los, e eles acabavam se chocando com átomos de matéria normal, aniquilando-se em um flash de raios gama, produzindo radiação. Essa característica é usada na tecnologia médica, onde a chamada tomografia PET se vale da desintegração de pósitrons para gerar os sinais que são captados pelo equipamento de imagem. Em um experimento não diretamente relacionado, realizado em 2005, um grupo de físicos conseguiu criar o positrônio, um átomo exótico, feito de matéria e de antimatéria: um elétron e um pósitron ligados um ao outro, mas sem um núcleo.
As características do anti-hidrogênio precisam ser determinadas experimentalmente para confirmar, ou não, previsões feitas pelo modelo padrão das partículas elementares. Mesmo sendo criados num vácuo, átomos de anti-hidrogênio produzidos em laboratório sempre se encontram cercados de matéria comum e acabam destruídos antes que os cientistas consigam analisá-los. O fato de os átomos de antimatéria não terem carga elétrica faz com que aprisioná-los e isolá-los da matéria comum seja ainda mais difícil do que conter pósitrons e antiprótons. A figura a seguir mostra em a) o interior do equipamento ALPHA, e em b) um diagrama do potencial em função da posição axial mostrando a concentração de pósitrons e a presença de antiprótons antes e depois da ejeção do feixe.
equipamento ALPHA
© CERN (equipamento ALPHA)
No experimento ALPHA (Antihydrogen Laser PHysics Apparatus) do CERN (Centro Europeu de Pesquisas Nucleares), foram utilizadas temperaturas extremamente baixas para desacelerar pósitrons e antiprótons o suficiente para que interagissem e formassem os átomos de anti-hidrogênio.
Em seguida, aplicando campos magnéticos, foram isolados com sucesso esses átomos por mais de um décimo de segundo, o que seria tempo suficiente para estudá-los. A temperatura dos antiátomos formados foi de 0,5 K, ou meio grau acima do zero absoluto. O vácuo do espaço, entre as estrelas, tem uma temperatura de 2,7 K.
Os cientistas ainda buscam uma explicação para a predominância de matéria no Universo. Em teoria, matéria e antimatéria deveriam ter surgido em quantidades iguais no Big Bang e se aniquilado em seguida, mas por algum motivo restou um saldo de matéria positiva que foi dar origem às estrelas, planetas e galáxias.
O estudo dos átomos de antihidrogênio poderá ajudar a entender a causa desse desequilíbrio.
Fonte: Nature

quinta-feira, 11 de novembro de 2010

Experimento sugere novo tipo de neutrino

Um experimento realizado no Fermilab parece elucidar uma descoberta relatada há mais de 20 anos e que mostraria falhas no Modelo Padrão da Física.
neutrinos no experimento MiniBooNE
© Fermilab (neutrinos no experimento MiniBooNE)
Há indícios da existência de uma nova partícula elementar: um quarto tipo de neutrino. Mais do que isso, os resultados mostram a violação de uma simetria fundamental do Universo, que estabelece que as partículas de antimatéria se comportam da mesma forma que os seus equivalentes de matéria.
Neutrinos são partículas elementares neutras, que nascem do decaimento radioativo de outras partículas. Os neutrinos conhecidos são: o neutrino do elétron (νe), o neutrino do múon (νμ) e o neutrino do tau (ντ).
Independentemente do sabor original de um neutrino, essas partículas constantemente mudam de um tipo para outro, em um fenômeno chamado "oscilação de sabores dos neutrinos", onde um neutrino do elétron pode se tornar um neutrino do múon e, posteriormente, voltar a ser um neutrino do elétron.
Agora, no experimento chamado MiniBooNE (Mini Booster Neutrino Experiment), foi detectado mais oscilações dos neutrinos do que seria possível se houvesse apenas três sabores deles. Num intervalo de energia entre 475 MeV  e 1250 MeV existiam 5,66 x 10²º prótons no alvo.
Estes resultados implicam que, ou há novas partículas, ou há forças que não haviam sido consideradas. A explicação mais simples envolve considerar a existência de novas partículas parecidas com os neutrinos, ou neutrinos estéreis, que não sofrem as interações fracas normais. Os neutrinos estéreis poderiam ajudar a explicar a composição da matéria escura e a assimetria do Universo.
Os três tipos conhecidos de neutrinos interagem com a matéria principalmente através da força nuclear fraca, o que os torna difíceis de detectar. A hipótese é que esse quarto sabor não interagiria através da força fraca, tornando-o ainda mais difícil de identificar.
Resultados similares do experimento MiniBooNE foram obtidos recentemente, quando cientistas europeus detectaram o que eles chamaram de neutrino camaleão, justamente porque os neutrinos mostraram uma oscilação maior do que a prevista pelo Modelo Padrão.
Os resultados agora obtidos parecem violar também a "simetria de paridade de carga" do Universo, que afirma que as leis da Física se aplicam da mesma forma às partículas e às suas equivalentes antipartículas. Violações desta simetria já foram vistas em alguns decaimentos raros, mas nunca antes com neutrinos.
Os experimentos, contudo, ainda não são definitivos. Novos dados precisam ser  coletados para que seja possível descartar de vez todas as predições feitas pelo Modelo Padrão.
Fonte: Physical Review Letters

sábado, 6 de novembro de 2010

LHC vai começar a estudar o Big Bang

O Grande Colisor de Hádrons (LHC) atingiu nesta semana uma etapa importante, ao finalizar as colisões de prótons previstas para sua primeira fase de operações. A partir de agora, o LHC passa para uma outra fase, na qual serão feitas colisões usando íons de chumbo, alcançando a temperatura de 10 trilhões de °C.
fonte de íons de chumbo
© CERN (fonte de íons de chumbo)
Uma das principais metas para 2010 era chegar a uma luminosidade (uma medida da taxa de colisões) da ordem de 1032 por centímetro quadrado por segundo.
Isto foi alcançado em 13 de outubro, com duas semanas de antecedência. Antes de encerrar as colisões de prótons, a máquina atingiu esse valor duas vezes, permitindo que os experimentos duplicassem a quantidade de dados coletados em um período de poucos dias.
O principal objetivo para 2011 será coletar dados suficientes, o femtobarn inverso (10−43m2), para fazer avanços que possam cruzar as fronteiras da Física atual.
Os resultados obtidos até agora, quando se atingiu um total de energia de 7 TeV, incluem a validação de aspectos do Modelo Padrão de partículas.
rastro de partículas no experimento ALICE
© CERN (rastro de partículas no experimento ALICE)
A colisão de íons de chumbo vai avançar por outras fronteiras, rumo ao estudo dos primeiros instantes de existência do Universo.
Um dos principais objetivos com o uso do chumbo é produzir pequenas quantidades da matéria primordial que preenchia o Universo instantes depois de sua criação, conhecida como plasma de quarks-glúons, e estudar sua evolução para o tipo de matéria que compõe o Universo hoje.
Outro aspecto importante é elucidar as propriedades da interação forte, que liga as partículas chamadas quarks, em objetos maiores, como prótons e nêutrons.
O LHC vai colidir íons de chumbo até 6 de Dezembro, antes de uma parada técnica para manutenção. O funcionamento do colisor irá recomeçar, novamente com prótons, em fevereiro de 2011.
Fonte: CERN