domingo, 24 de julho de 2011

Descoberta nova partícula no Fermilab

Físicos do acelerador de partículas Fermilab confirmaram a observação de uma partícula inteiramente nova, o bárion Xi-sub-b (Ξb0).
bárions no modelo de quarks
© Fermilab (bárions no modelo de quarks)
Os bárions são partículas formadas de 3 quarks, em diferentes configurações. O próton é um bárion que consiste de dois quaks up e um quark down, e o nêutron é formado por dois quarks down e um up. A Xi-sub-b tem um quark up, um quark strange e um quark heavy bottom, significando seu peso está em torno de seis vezes o peso de um próton ou um nêutron.
A existência dessa partícula já havia sido prevista algumas vezes, mas ela ainda não havia sido observada. Ela não dura muito tempo, viajando uma fração de milímetro antes de decair em partículas mais leves.
No Fermilab durante as colisões sã geradas quase que 500 trilhões de conjuntos de partículas, assim, os pesquisadores foram capazes de verificar a existência dela múltiplas vezes. A Xi-sub-b foi registrada 25 vezes.
O Tevatron do Fermilab, onde a Xi-sub-b foi descoberta, fica baseado em Illinois nos EUA, era também o maior acelerador de partículas do mundo até a construção do LHC.
geração da nova partícula Xi-sub-b
© Fermilab (geração da nova partícula Xi-sub-b)
Experimentos no Tevatron possibilitaram descobrir os bárions Sigma-sub-b (Σb and Σb*) em 2006, observar o baryon Xi-b-menos (Ξb-) em 2007, e encontrar o Omega-sub-b (Ωb-) em 2009. O bárion Lambda-sub-b (Λb), foi descoberto no CERN.
Medir as propriedades de todas essas partículas permite aos cientistas testar e melhorar os modelos de como os quarks interagem em distâncias próximas através da força nuclear forte, como explicado pela teoria da cromodinâmica quântica (QCD).
Fonte: Fermilab

segunda-feira, 18 de julho de 2011

Rotação de galáxia pode explicar o enigma da antimatéria

Um físico da Universidade de Warwick, no Reino Unido, produziu uma solução de dimensões galácticas para explicar o enigma do "desaparecimento" da antimatéria que deve ter sido criada no surgimento do nosso Universo.
torção espacial devido rotação de galáxia
© University of Warwick (torção espacial devido rotação de galáxia)
Recentemente, observações experimentais de partículas conhecidas como káons e mésons B revelaram diferenças significativas na forma como a matéria e a antimatéria decaem.
Esta "violação da paridade de carga", ou "violação de CP", é uma anomalia inconveniente para alguns pesquisadores, mas é um fenômeno útil para outros, já que pode abrir o caminho para uma explicação de por que mais matéria do que antimatéria parece ter sobrevivido na criação do nosso Universo.
Agora, o Dr. Mark Hadley, acredita ter encontrado uma explicação testável para a aparente violação da paridade de carga, uma explicação que não apenas preserva a paridade, mas também torna a violação da paridade de carga uma explicação ainda mais plausível para a divisão entre matéria e antimatéria.
Segundo os pontos de vista aceitos na física de partículas, a natureza é fundamentalmente assimétrica. Existe uma clara assimetria da esquerda para a direita nas interações fracas e uma violação de CP bem menor em sistemas Káon, que têm sido medidos, mas nunca explicados.
Esta pesquisa sugere que os resultados experimentais em nossos laboratórios são uma consequência da rotação galáctica torcendo nosso espaço-tempo local. Se isso se mostrar correto, então a natureza seria, afinal de contas, fundamentalmente simétrica.
Parece ser fácil negligenciar o efeito de algo tão grande quanto uma galáxia, porque o que parece mais óbvio para nós é o campo gravitacional local da Terra ou do Sol, sendo ambos muito mais facilmente perceptíveis do que o efeito gravitacional que nossa galáxia como um todo exerce sobre nós.
No entanto, o Dr. Hadley acredita que o que é mais importante neste caso é um efeito gerado pelo giro de tal corpo tão maciço.
A velocidade e o momento angular do giro de um corpo tão maciço quanto nossa galáxia cria um "arrastamento" sobre o espaço e o tempo locais, torcendo o formato desse tempo-espaço e criando efeitos de dilatação do tempo.
A rotação da nossa galáxia tem um efeito de torção no nosso espaço local que é um milhão de vezes mais forte do que a causada pela rotação da Terra.
Quando a violação de CP foi observada no decaimento dos mésons B, a diferença fundamental observada entre a dissolução das versões de matéria e de antimatéria da mesma partícula é uma variação nas diferentes taxas de decaimento.
Curiosamente, embora os pesquisadores observem essa larga variação no padrão das taxas de decaimento, quando as taxas de decaimento individuais são somadas elas aumentam o total tanto para as versões de matéria quanto de antimatéria da mesma partícula. O efeito de arrastamento de toda a galáxia sobre o espaço-tempo local pode ser a explicação para essas observações.
As versões de matéria e antimatéria da mesma partícula vão manter exatamente a mesma estrutura, exceto quando elas forem imagens espelhadas umas das outras. Não é sem sentido esperar que o decaimento dessas partículas também comece como uma imagem espelhada exata uma da outra.
No entanto, não é assim que ele termina. O decaimento pode começar como uma imagem espelhada exata, mas o efeito de arrastamento induzido pela rotação da galáxia é significativo o suficiente para fazer com que as diferentes estruturas em cada partícula experimentem diferentes níveis de dilatação do tempo e, portanto, decaiam de formas diferentes.
A variação geral dos diferentes níveis de dilatação do tempo, contudo, fica na média quando cada partícula no decaimento é levada em conta - a violação de CP desaparece e a paridade é conservada.
A beleza desta teoria é que ela também pode ser testada: há previsões que podem ser feitas feitas a partir da teoria e testadas experimentalmente.
A enorme variedade de dados que já existe, que mostram a aparente violação de CP em alguns decaimentos, pode ser analisada para ver se há um padrão que está alinhado com a rotação da galáxia.
O artigo do Dr. Hadley somente trata de como o arrastamento do espaço-tempo em escala galáctica poderia explicar as observações experimentais da aparente violação de CP.
Entretanto, a explicação também deixa aberta a porta para aqueles teóricos que acreditam que a violação de CP seria uma ferramenta útil para explicar a separação entre matéria e antimatéria no nascimento do nosso Universo, e o subsequente predomínio aparente da matéria.
As estruturas primitivas do Universo podem ter tido massa e giro suficientes para gerar efeitos de arrastamento que poderiam ter tido um efeito significativo na distribuição da matéria e da antimatéria.
Fonte: Europhysics Letters

quinta-feira, 14 de julho de 2011

Gelo pode ficar fluido abaixo de -130°C

Quando a água é resfriada abaixo de zero grau, ela cristaliza, formando gelo, em condições normais de temperatura e pressão.
água no estado sólido e líquido
© Revista Física (água no estado sólido e líquido)
O físico sueco Ove Andersson, da Universidade de Umea, afirma ter conseguido pela primeira vez produzir uma água que flui lentamente a 130 graus abaixo de zero. Ele fez o experimento submetendo a água congelada a uma pressão 10.000 vezes maior do que a pressão atmosférica normal.
"A descoberta é também interessante na medida que nos ajuda a compreender as muitas propriedades anormais da água. Por exemplo, foi previsto que a água teria duas diferentes fases líquidas em baixas temperaturas. A descoberta confirma a existência de uma dessas duas fases," explica Andersson.
Recentemente foi descoberta uma nova fase quântica da água, mas essas "propriedades anormais" a que o pesquisador se refere estão longe de serem totalmente compreendidas.
O experimento foi feito expondo gelo cristalino comum, no qual os átomos estão dispostos de forma ordenada, a pressões crescentes em temperaturas abaixo de -130ºC.
A ordem das moléculas colapsou e o gelo se transformou em gelo amorfo, com uma disposição aleatória das moléculas de água.
"Quando eu então elevei a temperatura, o gelo transformou-se em água de fluidez lenta. Essa água é como a água comum, mas sua densidade é 35 por cento maior, e as moléculas de água se movem relativamente devagar, ou seja, a viscosidade é alta," explica o pesquisador.
A água tem algumas propriedades anômalas, como por exemplo, na água congelada, cuja temperatura está abaixo de zero, sua densidade diminui quando a temperatura decresce e aumenta quando a temperatura se eleva.
"Há desvios que são conhecidos há muitos anos, e eles são muito importantes. Contudo, não há nenhuma explicação geral para eles, mas a resposta pode estar na forma como as propriedades da água são afetadas quando ela é exposta a altas pressões," defende Andersson.
Teorias preveem que a água exista em duas diferentes fases líquidas, uma com baixa densidade e outra com alta densidade, com a transição entre as fases ocorrendo a baixas temperaturas e altas pressões.
Quando a água esfria e se aproxima dessa zona de transição, pode haver uma transformação gradual que afeta as propriedades da água.
Infelizmente, esta transformação é difícil de estudar, pois a água normalmente cristaliza. Uma forma alternativa de estudar essa zona é primeiro criar o gelo amorfo.
As novas descobertas mostram que o gelo amorfo provavelmente se converte em água de alta viscosidade quando é aquecido sob alta pressão.
É possível que essa água fria e de fluidez lenta exista em corpos celestes de grande massa.
Fonte: ScienceDaily

segunda-feira, 4 de julho de 2011

Esqueleto da turbulência

Embora a turbulência seja um fenômeno que se caracteriza pela movimentação caótica das partículas de um fluido, existem técnicas capazes de identificar estruturas coerentes, permitindo a previsão desses movimentos.
fluxos turbulentos
© Astrophysical Journal Letters (fluxos turbulentos)
Estudos sobre a dispersão de cinzas vulcânicas, ciclones, tornados, tsunamis, ciclos solares, formação de planetas e estrelas, o Universo primordial e outras áreas tão diversas como o transporte de sangue em sistema cardiovascular e a fusão termonuclear controlada poderão se beneficiar destas pesquisas.
Os trabalhos foram liderados pelo físico espacial Abraham Chian, do Instituto Nacional de Pesquisas Espaciais (Inpe), e pelo matemático computacional Erico Rempel, do Instituto Tecnológico de Aeronáutica (ITA), em São José dos Campos (SP), em cooperação com um colega da Universidade de Estocolmo (Suécia) e um aluno de doutorado do Inpe.
Um dos estudos foi concluído durante a visita de Chian ao Instituto de Tecnologia da Califórnia, nos Estados Unidos, com apoio de uma bolsa da Fundação Guggenheim. O estudo contou com a participação de Pablo Muñoz, estudante de doutorado do Inpe, que recebeu prêmio de melhor trabalho de alunos durante o 9º Congresso Latino-Americano de Geofísica Espacial realizado na Costa Rica, em abril de 2011.
Os cientistas estudaram o campo magnético relacionado às estruturas coerentes da turbulência verificada no plasma solar. De acordo com Chian, utilizando os dados fornecidos pelos instrumentos a bordo de quatro sondas espaciais da missão Cluster, o grupo detectou em frente a uma nuvem magnética interplanetária duas estruturas coerentes na forma denominada como “lâminas de corrente”.
“A análise de dados de flutuações magnéticas na vizinhança dessas estruturas coerentes demonstrou que o vento solar exibe o comportamento de turbulência bem desenvolvida do tipo Kolmogorov, semelhante às turbulências encontradas na borda de uma máquina de plasma de fusão termonuclear, na atmosfera solar, no meio interestelar, em um túnel de vento e na copa da floresta amazônica, para citar alguns exemplos”, disse Chian à Agência FAPESP.
A caracterização da dinâmica da borda dianteira de uma nuvem magnética interplanetária é fundamental para o monitoramento e a previsão de clima espacial, uma vez que existe a evidência de que a tempestade magnética na Terra pode ser iniciada pela chegada de uma nuvem magnética proveniente de uma erupção solar.
“Os eventos extremos na natureza, tais como ciclones, tsunamis, a precipitação excessiva de chuvas em regiões localizadas, manchas solares e ejeções de massas coronais interplanetárias, estão relacionados às estruturas coerentes que dominam a dinâmica da turbulência e podem causar grandes impactos no clima terrestre, clima espacial e ambiente solar-terrestre”, explicou.
O segundo trabalho foi iniciado durante o estágio de pós-doutorado de Rempel na Universidade de Cambridge, com bolsa da FAPESP, e contou com a colaboração de Chian e de Axel Brandenburg, professor do Instituto Nórdico de Astrofísica Teórica e da Universidade de Estocolmo (Suécia).
De acordo com Chian, Brandenburg é um dos pioneiros do modelo de dínamo cósmico. “Esse modelo de dínamo pode explicar a origem e a evolução de ciclos solares, por exemplo, o aparecimento de períodos prolongados de atividades calmas do Sol conhecidos como os Grandes Mínimos”, disse.
No estudo, o grupo investigou as estruturas coerentes lagrangianas da turbulência astrofísica, com base na simulação numérica de um modelo não-linear de dínamo.
As estruturas coerentes lagrangianas são linhas ou superfícies materiais que atuam como barreiras de transporte na turbulência. Inspirado pela teoria de caos, esse conceito foi introduzido há quase dez anos por George Haller, atualmente professor de engenharia mecânica da Universidade de McGill, no Canadá.
“Essa nova técnica não-linear permite uma visualização mais acurada da dinâmica e estrutura complexa de fluidos, que não seria possível usando as técnicas tradicionais baseadas em formalismo euleriano”, disse Chian.
Essas estruturas são determinadas por meio da computação do máximo expoente de Lyapunov de tempo finito, que fornece o valor médio da taxa máxima de divergência ou do alongamento entre as trajetórias das partículas num certo intervalo de tempo.
“Isso permite a identificação de trajetórias atrativas e repulsivas em imagens obtidas das simulações numéricas ou imagens reais do campo de velocidade de um fluido, revelando o esqueleto da turbulência que forma as barreiras para o transporte das partículas. Os cruzamentos entre essas barreiras são responsáveis pela mistura caótica de partículas”, disse.
O estudo de estruturas coerentes lagrangianas, segundo os autores, tem aplicações em diversas áreas, por exemplo, a previsão do movimento dos poluentes na atmosfera e no mar, a migração dos fitoplânctons no oceano, o fluxo aperiódico em furacões, a interação entre o fluido e a estrutura no entorno das válvulas cardíacas e o plasma termonuclear em máquinas de confinamento magnético.
De acordo com Rempel, o grupo brasileiro foi o primeiro a introduzir essa nova técnica para a astrofísica. Usando as imagens da turbulência de plasma simuladas para modelar a geração do campo magnético nas camadas convectivas do Sol e de outras estrelas, foi comprovado pelo estudo que as estruturas coerentes lagrangianas são capazes de distinguir nitidamente os detalhes da complexidade da distribuição espacial de barreiras de transporte entre dois regimes diferentes do dínamo.
“Desde que o conceito foi desenvolvido por Haller, a técnica foi aplicada para problemas de fluidos, tanto em simulações como em dados observacionais voltados para dispersão de poluentes nos oceanos, por exemplo, mas não tinham ainda sido utilizadas, no campo da astrofísica, em fluidos com campo magnético”, disse Rempel.
Essas estruturas coerentes marcam certas direções preferenciais das partículas de fluidos em movimento. Quando um poluente é arrastado pelos vórtices e correntes do oceano a identificação das estruturas coerentes permite detectar linhas de atração que possibilitam prever para onde o fluido irá se movimentar. O mesmo fenômeno pode acontecer, por exemplo, com as cinzas expelidas na atmosfera por um vulcão.
“No enfoque da astrofísica, nosso objetivo era saber qual o impacto do campo magnético sobre os movimentos turbulentos do plasma de uma estrela”, disse Rempel, que coordenou o projeto Simulação numérica e análise de transição para turbulência em plasmas espaciais: uma abordagem baseada em sistemas dinâmicos, apoiado pela FAPESP.
Segundo ele, na camada convectiva do Sol, uma região intensamente turbulenta, as partículas se movimentam como se estivessem aprisionadas em vórtices. As estuturas coerentes lagrangianas marcam as fronteiras desses vórtices, delimitando as regiões do fluido entre as quais as partículas não se misturam.
“Quando fazemos o estudo das estruturas coerentes, vemos que algumas partículas podem se cruzar, passando para outras regiões do fluido. No caso da estrela, observamos que, quando o campo magnético ficava mais forte, existiam menos cruzamentos – isto é, a turbulência diminuía”, disse.
Esses resultados, segundo Rempel, foram obtidos a partir de uma simulação ainda bastante simplificada. “A partir desse modelo acadêmico, vamos agora procurar estender essa aplicação a modelos mais realistas da camada convectiva do Sol”, disse.
Fonte: Agência FAPESP e Astrophysical Journal Letters

sexta-feira, 1 de julho de 2011

A granularidade do espaço

O Telescópio de Raios Gama Integral, da Agência Espacial Europeia, revelou que qualquer "granulação" quântica do espaço deve ter uma escala muito menor do que se previa.
explosão de raios gama
© ESA (explosão de raios gama)
A Teoria Geral da Relatividade de Einstein descreve as propriedades da gravidade e assume que o espaço é um tecido suave e contínuo.
No entanto, a teoria quântica sugere que o espaço deve ser granulado quando visto em uma escala suficientemente pequena, como a areia em uma praia.
Uma das maiores ocupações dos físicos na atualidade está na tentativa de conectar estes dois conceitos, criando uma única teoria da gravitação quântica.
Agora, o Integral colocou novos limites muito mais rigorosos para o tamanho desses "grãos" quânticos no espaço, mostrando que eles devem ser muito menores do que algumas ideias sobre a gravidade quântica vinham sugerindo.
Segundo os cálculos, os minúsculos grãos poderiam afetar a forma com que os raios gama viajam pelo espaço.
Os grãos devem "torcer" os raios de luz, mudando a direção na qual eles oscilam, cuja propriedade é denominada polarização.
Os raios gama de alta energia devem ser torcidos mais do que os raios gama de energias mais baixas, e a diferença na polarização pode ser usada para estimar o tamanho dos grânulos do espaço.
Philippe Laurent e seus colegas usaram dados do instrumento IBIS, a bordo do observatório Integral, para procurar diferenças de polarização entre raios gama de alta e baixa energia, emitidos durante uma das mais poderosas explosões de raios gama (GRBs) já vistas.
As GRBs vêm de algumas das explosões mais energéticas conhecidas no Universo. Acredita-se que a maioria delas ocorra quando estrelas muito maciças colapsam para formar estrelas de nêutrons ou buracos negros.
Esse colapso gera um gigantesco pulso de raios gama, com duração de poucos segundos até alguns minutos - mas, durante esse tempo, o pulso ofusca o brilho de galáxias inteiras.
O GRB 041219A ocorreu em 19 de dezembro de 2004 e foi imediatamente classificado no topo da lista dos GRBs em brilho. Ele foi tão brilhante que o Integral foi capaz de medir a polarização dos seus raios gama com precisão.
Os cientistas então procuraram diferenças na polarização a diferentes energias, mas não encontraram nenhuma dentro dos limites de precisão dos dados.
Algumas teorias sugerem que a natureza quântica do espaço - sua "granularidade" - deve manifestar-se na chamada escala de Planck: a 10-35 metro.
No entanto, as observações do Integral são cerca de 10.000 vezes mais precisas do que qualquer medição anterior e mostram que qualquer grão quântico deve estar em torno dos 10-48 metro ou menor.
"Este é um resultado muito importante em física fundamental e descarta algumas teorias das cordas e teorias da gravidade quântica em loop," afirmou o Dr. Laurent.
Fonte: ESA

quinta-feira, 30 de junho de 2011

O maior campo magnético é criado

Foi batido um novo recorde mundial para os campos magnéticos por físicos alemães, ao alcançar a marca dos 91,4 T (teslas).
bobina dupla
© Helmholtz-Zentrum (bobina dupla)
Para alcançar este recorde, Sergei Zherlitsyn e seus colegas do Centro Helmholtz desenvolveram uma bobina pesando aproximadamente 200 quilogramas.
Ao percorrer a bobina, uma fortíssima corrente elétrica cria o campo magnético, por um período de alguns milissegundos, sob risco de explodir a própria bobina.
O campo magnético influencia a própria corrente elétrica que o gera, tentando empurrar a corrente elétrica para fora da bobina. Quanto mais forte a corrente flui, mais fortes são essas forças.
"A 25 tesla, o cobre seria dilacerado," explica Joachim Wosnitza, que construiu a bobina. Para comparação, um ímã de geladeira comum tem 0,05 tesla.
"Apesar do recorde, não estamos realmente muito interessados em alcançar valores de campo cada vez mais altos, mas sim em usá-los para a pesquisa em ciência dos materiais", explica o pesquisador.
Quanto mais poderosos forem os campos magnéticos, mais precisamente os cientistas poderão estudar novos materiais para a construção de componentes eletrônicos inovadores, ou os chamados supercondutores, que conduzem eletricidade sem qualquer resistência.
Técnicas assim permitiram que a mesma equipe fizesse com que o semicondutor germânio se tornasse supercondutor a temperatura ambiente.
Os teóricos estimam que o estudo e a manipulação precisa desses novos materiais exigirão campos magnéticos entre 90 e 100 teslas.
A 100 teslas, porém, a força de Lorentz no interior do cobre poderia gerar uma pressão que equivale a 40.000 vezes a pressão do ar ao nível do mar.
banco de capacitores
© Helmholtz-Zentrum (banco de capacitores)
Uma força assim destruiria o cobre de forma instantânea, em uma explosão.
Por isso, para construir suas bobinas, os pesquisadores usam ligas de cobre especiais, capazes de suportar 10 mil vezes a pressão atmosférica.
Ainda muito pouco, sendo apenas um quarto do necessário para alcançar os 100 teslas.
A primeira saída encontrada foi unir os fios de cobre da bobina com fibras sintéticas de carbono, usadas em coletes à prova de balas, que pressionam o cobre de fora para dentro.
Isso permite construir uma bobina que alcança por volta de 50 teslas.
Para obter os 91,4 teslas do maior campo magnético já gerado, os pesquisadores construíram duas bobinas, colocando uma dentro da outra.
Ainda assim, o aparato só funciona durante alguns milissegundos, consumindo a energia fornecida por um gigantesco banco de capacitores.
Fonte: Helmholtz-Zentrum

sábado, 25 de junho de 2011

Transformação do neutrino

Cientistas acreditam estar um passo mais perto de entender por que a matéria e não a antimatéria domina o Universo - quantidades iguais de ambos teriam sido desencadeadas pelo Big Bang.
Super-Kamiokande
© Observatório Kamioka (Super-Kamiokande)
Uma equipe internacional de pesquisadores no Japão descobriu que os três tipos de neutrino, uma das partículas básicas da natureza, podem se transformar um no outro, o que poderia ser sua vantagem para o antineutrino.
O experimento foi realizado pelo Super-Kamiokande, um detector de neutrinos localizado 1 km debaixo da terra, em uma mina na cidade de Hida, no Japão. A estrutura cilíndrica tem 42 m de altura e 39,3 m de largura e é formada por 50 mil t de água pura rodeada por mais de 13 mil tubos fotomultiplicadores. O neutrino, ao colidir com os núcleos dos átomos de água emite radiação, e esta é captada pelos fotomultiplicadores(as bolas espalhadas na água na foto acima).
Em 1998 e 2001, os cientistas já haviam descoberto mudanças nas oscilações de neutrinos atmosféricos e aqueles emitidos pelo Sol. Os neutrinos têm três tipos, ou três "sabores". Já sabe-se que esses podem se transformar de duas formas, e o Super-Kamiokande descobriu mais uma forma.
Na natureza, as partículas fundamentais são divididas em três tipos. Existem por exemplo os léptons elétron, múon e tau - esta mesma divisão é utilizada para os neutrinos. As duas formas de transformação anteriormente observadas eram neutrinos de tau se transformarem em neutrinos de múon e vice-versa. Agora, o Super-Kamiokande trouxe à tona mais uma: neutrinos de múon se transformaram em neutrinos de elétrons, o que indica que todas as transformações são possíveis para essa partícula.
Essa capacidade de transformação de um tipo em outro que pode ser a diferença crucial entre o neutrino e o antineutrino e a predominância do primeiro no Universo.
Fonte: Universidade de Tóquio

sexta-feira, 10 de junho de 2011

Primeiro circuito integrado de grafeno

Cientistas da IBM apresentaram o primeiro circuito integrado feito com componentes de grafeno.
transístor de grafeno e um par de bobinas
© Science (transístor de grafeno e um par de bobinas)
Embora muito simples, a demonstração é um passo importante na transição do grafeno da categoria de material promissor para material útil.
Em 2009, um grupo do MIT havia construído um chip de grafeno, bastante rudimentar, mas mostrando que seria possível utilizar as folhas de carbono com apenas um átomo de espessura em conjunto com componentes da eletrônica tradicional.
Em 2010, um outro grupo da própria IBM construiu um transístor de grafeno que bateu o recorde mundial de velocidade, operando a 300 GHz.
Agora, Phaedon Avouris e seus colegas construíram um circuito integrado de verdade, usando equipamentos industriais e componentes de grafeno.
O circuito consiste de um único transístor de grafeno com um par de indutores integrados em uma pastilha de carbeto de silício (SiC).
O maior avanço desse pequeno circuito está no desenvolvimento de uma técnica para fixar o grafeno no silício, já que vinha sendo difícil convencê-lo a aderir nos metais ou nos óxidos usados pela indústria eletrônica.
Avouris e seus colegas tiveram uma ideia genial: em vez de fabricar o grafeno e depois fixá-lo sobre o silício, eles pegaram o carbeto de silício, que é formado de silício e carbono, e retiraram o silício da camada superficial, deixando apenas os átomos de carbono, que formaram o grafeno.
A litografia fez o resto, desenhando o transístor no grafeno que já nasceu fixado no silício.
Os indutores (bobinas) foram construídos de alumínio diretamente sobre a pastilha. Uma camada de 120 nanômetros de dióxido de silício, depositado por evaporação, isola as voltas das bobinas do restante do circuito.
circuito funciona como um misturador de frequências
© Science (circuito funciona como um misturador de frequências)
O circuito funciona como um misturador de frequências, operando a 10 GHz. Misturadores de frequência são utilizados em sistema de comunicação por rádio como, por exemplo, nas redes de comunicações sem fios.
O próximo passo da pesquisa será otimizar o transístor, para que ele opere em velocidades mais altas, e projetar circuitos mais complexos.
É grande a expectativa na indústria para a construção de circuitos híbridos, incluindo componentes feitos com os semicondutores tradicionais e componentes feitos com grafeno.
Fonte: Science

Grafeno na spintrônica

Filme de carbono com apenas um átomo de espessura e dotado de uma estrutura hexagonal, o grafeno é uma das esperanças para o desenvolvimento de uma nova eletrônica, a spintrônica, que poderá levar ao surgimento de computadores quânticos, ainda menores e mais rápidos.
folhas de grafeno
© Universidade de Manchester (folhas de grafeno)
Nesse novo mundo, a informação magnética não seria transmitida apenas pela corrente elétrica, como ocorre nos micros atuais, mas fundamentalmente por outra propriedade dos elétrons, por seu spin. Como só existem dois valores possíveis para o spin, esse estado do elétron pode ser útil para armazenar e propagar dados na forma de bits. Mas o sinal gerado pela corrente de spin é extremamente fraco e tende a se propagar em todas as direções, duas características que dificultam seu controle e detecção. De acordo com um trabalho recente de físicos teóricos brasileiros, esses empecilhos são aparentemente contornáveis no grafeno, um candidato a tomar o lugar do silício nos circuitos integrados do futuro: o spin de seus elétrons pode ser amplificado e controlado por meio de um mecanismo que funciona como uma lente, criando a possibilidade de o material ser usado como um nanotransistor quântico.
“Provamos matematicamente que o grafeno pode atuar como uma lente e redirecionar a corrente de spin de uma fonte magnética para uma determinada região onde se encontra uma unidade receptora”, diz o físico brasileiro Mauro Ferreira, do Trinity College, de Dublin, que participou do estudo, publicado na edição de maio do Journal of Physics: Condensed Matter, ao lado de colegas da Universidade Federal Fluminense (UFF). “Dessa forma, uma parte da informação que seria perdida pode ser resgatada.” Nada disso ainda foi feito em laboratório, apenas esboçado em trabalhos teóricos. Depois de uma série de cálculos, os pesquisadores afirmam que o grafeno, um material mais resistente do que o aço e melhor condutor de eletricidade do que o cobre, pode se comportar como um transistor de spin se exposto a certas condições. O artigo é o terceiro do grupo de físicos a explorar teoricamente as possibilidades do uso de nanotubos de carbono e do grafeno na spintrônica. Os dois estudos anteriores saíram no ano passado na Physical Review B.
Para transformar o spin do grafeno num meio capaz de transmitir informação num sistema quântico, os brasileiros trabalharam com um cenário bastante particular. A criação de uma corrente de spin foi simulada por meio da inserção de um objeto magnético na arquitetura atômica em forma de colmeia do grafeno, composta apenas por carbonos. “Imagine um pequeno ímã em movimento rotatório numa folha de grafeno”, compara Ferreira. A presença desse objeto estranho faria o spin dos elétrons de carbono vibrarem sucessivamente da mesma maneira. A vibração do spin de um elétron seria então repassada a seu vizinho e assim por diante. O problema é que uma corrente de spin se dissemina, sem controle, por todas as direções do grafeno. “A exemplo das ondas criadas por uma pedra jogada num lago, essa corrente é mais fraca à medida que se distancia de sua origem”, diz o pesquisador
O passo seguinte da simulação foi dividir o filme de grafeno em duas partes e alterar a densidade de carga elétrica numa delas. O procedimento geraria nesse segmento do grafeno um potencial de porta, um caminho para o qual a corrente de spin se dirigiria e por meio do qual se disseminaria pelo material. “A corrente de spin não dissipa calor no grafeno e a perda de energia num sistema assim seria mínima. Um dipositivo que funcionasse por meio dessa corrente consumiria pouquíssima energia”, afirma o físico Roberto Bechara Muniz, da UFF, outro autor do trabalho. Além de canalizar a corrente de spin para uma região específica do grafeno e, assim, amplificar seu sinal, a criação da porta funcionaria como uma chave para ligar e desligar o transistor. Permitiria barrar ou liberar a passagem da corrente de spin. “Nosso trabalho dá apenas uma pequena contribuição sobre essa questão, mas mostra ser possível controlar a corrente de spin no grafeno”, diz Muniz. Especialista em spintrônica, José Carlos Egues, do Instituto de Física de São Carlos, da Universidade de São Paulo, que não participou dos trabalhos de Ferreira e Muniz, considera os resultados interessantes, mas ainda muito preliminares. “Mais estudos são necessários para explorar a viabilidade da proposta e a sua relevância para aplicações em spintrônica”, comenta Egues.
Por didatismo, o spin é descrito como o movimento feito por um elétron ao girar em torno do próprio eixo como um pião. Há duas formas de spin, uma com rotação para cima e outra para baixo. Na verdade, o fenômeno é mais complicado do que isso e um elétron pode apresentar simultaneamente as duas variantes de spin. Em termos práticos, o desenvolvimento de uma nova eletrônica depende do pleno domínio da corrente de spin, como se tem atualmente da corrente elétrica, e de ter meios eficazes de controlar a conversão de um tipo de spin para outro. Físicos de todo o mundo têm tentado criar correntes de spin em materiais semicondutores e também no grafeno, um cristal bidimensional com um conjunto de propriedades singulares.
Num artigo publicado na revista científica americana Science de 15 de abril deste ano, Andre Geim e Konstantin Novoselov, físicos da Universidade de Manchester que ganharam o Nobel de Física de 2010 por seus trabalhos com o grafeno, mostraram indícios de que esse material pode mesmo transmitir uma corrente de spin. Eles aplicaram um campo elétrico entre dois eletrodos situados um milionésimo de metro de uma folha desse material e mediram a voltagem numa região distante 10 milionésimos de metro dos eletrodos. Quando o grafeno foi exposto a um campo magnético, a voltagem se tornou mais elevada. Essa variação, segundo os autores do estudo, é uma evidência de que há uma corrente de spin passando pelo grafeno.
Fonte: FAPESP (Pesquisa)

quinta-feira, 9 de junho de 2011

Ímã líquido gera magnetismo pelo movimento

A Terra, o Sol e outros corpos celestes geram campos magnéticos através do movimento dos seus fluidos internos condutores de eletricidade.
geodínamo
© Los Alamos National Laboratory (geodínamo)
Estes fluidos são frequentemente muitíssimo turbulentos.
Mas pode ser possível gerar magnetismo em um fluido que flui com suavidade, por exemplo, em um tanque de sódio líquido posto para girar suavemente.
Uma equipe de físicos anunciou ter alcançado uma amplificação de oito vezes de um campo magnético promissor. Na próxima fase de seu projeto, eles esperam demonstrar um campo magnético auto-sustentável, como ocorre na Terra, assim como em todos os planetas e estrelas.
Na última década, pesquisadores conseguiram criar campos magnéticos em laboratório usando os chamados dínamos fluidos. Assim como seus equivalentes astronômicos, esses sistemas são baseados na rotação de um fluido, tipicamente o sódio, devido à sua alta condutividade.
Um pequeno campo magnético inicial, aplicado ao tanque com o sódio em rotação, pode gerar uma corrente elétrica.
Esta, por sua vez, gera mais campo magnético, criando um círculo virtuoso que pode levar a um crescimento exponencial do campo.
Em vez de discutir as complexas interações corrente-campo magnético, os pesquisadores frequentemente descrevem essa amplificação como um processo de alongamento e dobramento das linhas do campo magnético, que são essencialmente arrastadas pelo fluido.
Mas não tem havido consenso nessas explicações. Alguns pesquisadores argumentam que o reforço do campo magnético é gerado pela turbulência, que cria vórtices capazes de realimentar o processo.
Outros, porém, argumentam que a turbulência é aleatória - dessa forma, alguns turbilhões atuarão no sentido da amplificação, enquanto outros terão o efeito oposto, tornando o campo magnético mais difuso e mais fraco.
Stirling Colgate e seus colegas do Laboratório Nacional Los Álamos, nos Estados Unidos, decidiram então partir para trabalhar com dínamos fluidos sem turbulência, nos quais o sódio é girado suavemente, de maneira contínua e previsível.
Isso permitirá descrever com bastante precisão o papel da turbulência nesses processos essenciais ao "funcionamento do cosmos".
O fluido está dentro de um tanque em forma de anel, de 30 centímetros de altura, cujo raio interno é metade do raio externo.
Em vez de usar hélices, o fluido é rotacionado girando as paredes do tanque. A parede interna gira a 68 rotações por segundo, enquanto a parede externa gira um quarto mais rápido.
Esse fluxo suave reproduz o que se acredita acontecer no interior das estrelas jovens e ao redor dos buracos negros.
No último experimento, a equipe aplicou um campo magnético de cerca de 12 G (gauss), apontando radialmente para dentro.
Como era de se esperar de um líquido condutor de eletricidade, o sódio "agarrou" as linhas do campo magnético e as fez girar em torno do tanque em forma de anel.
Este envolvimento e alongamento, que é chamado de efeito Ômega, criou um campo magnético na direção do fluxo do sódio que chegou a ser oito vezes mais forte do que o campo original.
Mas o efeito Ômega não é suficiente para que um campo magnético se auto-sustente. Para completar o dínamo, a equipe vai precisar dobrar uma parte do campo amplificado na direção radial original.
Isto poderá ser feito pelo chamado efeito Alfa, que resulta de movimento helicoidal do fluido.
A turbulência, com os seus redemoinhos espirais, é uma fonte natural de movimento helicoidal, mas o grupo espera criar um efeito Alfa suave, sem turbulência, disparando jatos de sódio a partir do fundo do tanque rotativo.
"A mensagem importante em termos de física é que os fluxos laminares podem produzir campos magnéticos em grande escala mais facilmente do que os fluxos turbulentos," comentou Cary Forest, da Universidade de Wisconsin, que trabalha em outro experimento de dínamo fluido.
Mas o próprio Forest salienta que a turbulência tem sido observada nos dínamos estelares e galácticos. Outros pesquisadores admitem que a turbulência diminui a eficiência dos dínamos fluidos, mas que a turbulência, seria inevitável.
O projeto Alfa-Ômega pode tirar essas dúvidas. E, se Fores e outros tiverem razão, exatamente por não reproduzir com naturalidade os processos que ocorrem nas estrelas e nos planetas, o experimento poderá revelar o peso que a turbulência exerce neles. E, também, será possível gerar campos magnéticos de alta potência, eventualmente com diversas aplicações práticas.
Fonte: Physical Review Letters

terça-feira, 7 de junho de 2011

Interpretações quânticas são questionadas

O cientista Aephraim Steinberg, da Universidade de Toronto, no Canadá, coordenou uma equipe internacional de experimentalistas que demonstrou que a tecnologia atual já é capaz de fazer medições sem afetar as partículas quânticas, e que estas partículas podem se comportar como ondas e partículas ao mesmo tempo.
experimento da dupla fenda
© Revista Física (experimento da dupla fenda)
Uma das demonstrações mais famosas da mecânica quântica é o chamado experimento da dupla fenda, que ensejou as discussões entre Niels Bohr e Albert Einstein, em 1927.
Quando um canhão dispara elétrons rumo a uma fenda, elas batem do outro lado de forma discreta. Mas quando a chapa tem duas fendas, o que se vê do outro lado é um padrão de interferência.
As seções claras e escuras do padrão de interferência correspondem aos picos e vales das ondas interferindo mutuamente, mostrando que as "partículas" passam simultaneamente pelas duas fendas, ou seja, comportam-se como ondas.
Contudo, quando se tenta colocar um detector em cada fenda, para ver em qual delas a partícula está passando, o padrão de interferência é destruído. Portanto, não se pode observar a partícula passando por uma das duas fendas sem destruir o efeito de interferência.
Isso deu origem ao famoso Princípio da Incerteza de Heisenberg, que estabelece que não é possível, ao mesmo tempo, medir a posição e o momento de uma partícula quântica.
Atualmente, a tecnologia alcançou um ponto que permite a realização de experimentos detalhados em sistemas quânticos individuais, com aplicações potenciais como a criptografia e a computação quântica.
Os pesquisadores reconstruíram o experimento da dupla fenda substituindo o canhão de elétrons por uma "lanterna" capaz de disparar um fóton de cada vez.
Foi utilizado um cristal de quartzo chamado calcita, que tem um efeito sobre a luz que depende da direção na qual a luz está se propagando, para medir a direção como uma função da posição.
Com isto, foi possível medir uma média tanto da posição quanto do momento do fóton, uma vez que continua sendo impossível determinar as informações para um fóton em particular. A imagem a seguir mostra a densidade de probabilidade que descreve a trajetória característica dos fótons.
densidade de probabilidade
© Science (densidade de probabilidade)
O resultado é uma demonstração realística, mas nada convencional, de que o fóton comporta-se simultaneamente como partícula e como onda, continuando a gerar o padrão de interferência típico das ondas mesmo quando passa por uma única fenda.
Isto foi possível de se medir porque o experimento é capaz de recompor a trajetória média dos fótons, sem interferir com eles, através de uma técnica chamada de medição fraca.
De fato, o experimento terá grande impacto filosófico, uma vez que descreve diretamente sobre as diversas reflexões da mecânica quântica, incluindo a interpretação de Copenhague, e das interpretações menos convencionais de David Bohm e Louis de Broglie.
A chamada teoria da onda piloto, por exemplo, propõe que cada partícula tem uma trajetória bem definida, que a leva diretamente a uma das fendas, enquanto sua onda associada passa pelas duas fendas simultaneamente. O experimento parece dar sustentação a essa interpretação.
O experimento mostra que o Princípio da Incerteza da Heisenberg não é tão rígido quanto parecia, seguindo uma tendência que já vem sendo demonstrada em outros trabalhos.
Esta pesquisa poderá ter aplicações práticas na computação quântica. As portas lógicas dos computadores quânticos poderão ser capazes de repetir uma operação quando a checagem de erro não se mostrar convincente.
Fonte: Science

quarta-feira, 1 de junho de 2011

O elétron é quase perfeitamente redondo

Pesquisadores britânicos descobriram que o elétron é quae que totalmente redondo. Eles fizeram a medição mais precisa até hoje da forma de um elétron, que demonstra que ele é uma esfera quase perfeita.
elétrons orbitando o núcleo do átomo
© ALAMY (elétrons orbitando o núcleo do átomo)
As partículas subatômicas só diferem de ser perfeitamente redondas por menos de 0,000000000000000000000000001 centímetros. Isso significa que se um elétron for ampliado para o tamanho do Sistema Solar, ainda parecerá esférico dentro da largura de um fio de cabelo humano.
Os físicos estudaram os elétrons dentro de moléculas chamadas de flúor itérbio. Utilizando um laser, eles fizeram medições do movimento dos elétrons, procurando qualquer balanço que sugerisse que a forma da molécula era distorcida (o que ocorreria se os elétrons não fossem perfeitamente redondos).
Por mais de uma década, tais imperfeições não foram observadas. Foi uma medida muito difícil de fazer, mas agora esse conhecimento vai melhorar teorias fundamentais da física.
Os resultados são importantes no estudo da antimatéria, uma substância elusiva que se comporta da mesma maneira como a matéria comum, exceto que tem uma carga elétrica oposta.
Por exemplo, a versão de antimatéria dos elétrons com carga negativa é a carga positiva anti-elétron, conhecido como pósitron. Compreender a forma do elétron pode ajudar os pesquisadores a entender como os pósitrons se comportam e como a matéria difere da antimatéria.
Segundo as leis da física atualmente aceitas, o Big Bang criou tanta antimatéria quanto matéria comum. No entanto, desde que o conceito foi concebido pelo ganhador do Prêmio Nobel Paul Dirac, em 1928, a antimatéria só foi encontrada em pequenas quantidades a partir de fontes como raios cósmicos e algumas substâncias radioativas.
Os cientistas querem explicar essa falta de antimatéria procurando por pequenas diferenças entre o comportamento da matéria e da antimatéria, que até agora não foi observada.
O fato dos pesquisadores descobrirem que os elétrons não são redondos pode provar que o comportamento da matéria e da antimatéria difere mais do que os físicos pensavam anteriormente. Assim, poderia explicar como toda a antimatéria desapareceu do universo, deixando apenas a matéria comum.
Segundo cientistas, os astrônomos já procuraram direto na borda do universo visível, e mesmo eles só viram matéria comum, e nenhum esconderijo para uma grande porção de antimatéria. Os físicos não sabem o que aconteceu com ela, mas essa pesquisa pode ajudar a confirmar ou descartar algumas das explicações possíveis.
Fonte: Nature

sexta-feira, 20 de maio de 2011

O processador quântico

Em 2007, a empresa canadense D-Wave, então recém-criada a partir dos laboratórios da Universidade da Colúmbia Britânica, afirmou ter construído o primeiro processador quântico.
processador quântico de 128 qubits
© D-Wave (processador quântico de 128 qubits)
Físicos de todo o mundo mostraram-se céticos com a alegação: o processador era interessante, mas todos duvidavam de que ele usasse fenômenos quânticos para funcionar.
Agora, pela primeira vez, a empresa decidiu publicar um artigo científico dando alguns detalhes sobre o funcionamento do seu processador e revelando o papel que a mecânica quântica representa em seu funcionamento.
Ao contrário de todas as pesquisas na área da computação quântica, que estimam que décadas de pesquisas ainda nos separam desses computadores futurísticos, o chip da D-Wave foi fabricado usando as técnicas tradicionais da microeletrônica, embora usando materiais supercondutores.
O processador possui 128 qubits supercondutores e 24.000 componentes conhecidos como junções Josephson, ou qubits de fase Josephson. Como todo material supercondutor, ele funciona sob temperaturas criogênicas.
"Nós já sabemos há algum tempo que esses processadores são extremamente eficazes em resolver os problemas para os quais eles foram projetados, mas esta é a primeira vez que nós pudemos abrir a caixa-preta e mostrar como eles exploram a mecânica quântica para resolver esses problemas," anunciou Geordie Rose, gerente de tecnologia da D-Wave.
O artigo descreve o funcionamento de um bloco do circuito do processador, denominada célula. A célula, uma das 16 que formam o processador quântico, é formada por oito qubits supercondutores de fluxo e 1.500 junções Josephson.
Os pesquisadores tiraram uma série de 'fotografias' do comportamento da célula conforme ela executava um cálculo e mostraram que, usando o alto grau de controle embutido no circuito integrado, os efeitos quânticos podem ser precisamente controlados como desejado por um programador para acelerar os cálculos.
Os dois níveis mais baixos de energia - os elétrons circulando no sentido horário ou anti-horário - podem ser usados para representar os 0s e 1s.
O campo magnético associado com a corrente elétrica que percorre o qubit de fluxo também é quantizado, apontando num ou noutro sentido conforme a direção da corrente. O sentido desse campo magnético pode ser alterado usando um campo magnético externo.
O grande desafio para a construção de um computador quântico é manter os qubits com seus valores, sem que os dados sejam corrompidos por influências externas.
A empresa afirma que, usando uma propriedade chamada termalização quântica (quantum annealing), dentro de um conceito conhecido como computação quântica adiabática, seu processador mantém oito qubits acoplados, todos no menor nível de energia.
Para fazer os cálculos, o processador liga e desliga as interações entre os diversos qubits. Com isto, o estado de baixa energia do sistema em situação de não-interação deve evoluir naturalmente para o estado de baixa energia do sistema em interação - a resposta do cálculo estará codificada nas interações.
Os pesquisadores argumentam que os qubits de fato atingem seu menor estado de energia seguindo a mecânica quântica. A evolução do sistema é consistente com a mecânica quântica, e não com a mecânica clássica.
A empresa anunciou que pretende publicar novos artigos científicos nos próximos meses, dando mais detalhes do funcionamento do seu processador.
Fonte: Nature

domingo, 15 de maio de 2011

Velocidade da luz é alterada por campo eletromagnético

A luz não viaja na mesma velocidade em todas as direções quando ela está sob o efeito de um campo eletromagnético.
raios de luz
© Revista Física (concepção artística de raios de luz)
Embora tenha sido previsto pela teoria, esse efeito contra-intuitivo foi agora demonstrado experimentalmente pela primeira vez por uma equipe da Universidade Paul Sabatier e do Centro Nacional de Pesquisas Científicas (CNRS), da França.
Os pesquisadores mediram, com uma precisão extrema - de cerca de um bilionésimo de metro por segundo - a diferença entre as velocidades de propagação da luz em uma direção e na direção oposta.
A diferença encontrada abre caminho para pesquisas mais aprofundadas com o objetivo de melhorar o modelo que descreve as interações das partículas elementares, o chamado Modelo Padrão da Física.
No vácuo absoluto, a luz viaja a uma velocidade constante de 299.792.458 m/s.
Parece natural que ela se propagasse na mesma velocidade em todas as direções.
No entanto, existem situações em que essa propriedade não é válida, principalmente quando a luz está viajando sob o efeito de um campo eletromagnético.
Esses casos foram inicialmente previstos pela teoria no final dos anos 1970, e deveriam ser observados mesmo no vácuo. No entanto, essas variações muito pequenas são difíceis de confirmar experimentalmente.
O progresso tecnológico tornou possível a detecção desses efeitos em um gás, o nitrogênio no caso do experimento agora realizado.
Para observar a variação da velocidade da luz, os pesquisadores projetaram uma cavidade óptica na qual os feixes de luz passam através de um dispositivo composto por ímãs e eletrodos, o que torna possível a geração de intensos campos elétricos e magnéticos - o campo magnético aplicado é 20.000 vezes maior do que a da Terra.
cavidade óptica usada no experimento 
© CNRS (cavidade óptica usada no experimento)
Uma cavidade óptica é um dispositivo no qual determinados raios de luz permanecem confinados por meio de espelhos, nos quais esses raios ficam refletindo continuamente.
Dessa forma, os pesquisadores conseguiram demonstrar experimentalmente que a luz não viaja na mesma velocidade em direções opostas em um gás sobre o qual está atuando um campo eletromagnético.
A diferença medida na velocidade da luz é de cerca de um bilionésimo de metro por segundo (m/s), ou seja, 10-9 m/s, o que equivale a 10-18 vezes a velocidade da luz.
Os resultados abrem caminho para diversas novas pesquisas. Permitirão um refinamento das medições da anisotropia da propagação da luz. Aumentando a sensibilidade do dispositivo de medição poderá ser observado minúsculas falhas da invariância de Lorentz, que é uma simetria fundamental expressa como parte da Teoria da Relatividade.
Isso tornaria possível testar algumas propostas teóricas para melhorar o Modelo Padrão, um modelo que hoje descreve todas as interações entre as partículas elementares.
Essa anisotropia direcional, governada por um campo eletromagnético, pode gerar novas aplicações em óptica, tais como componentes cujo comportamento será diferente dependendo da direção, tudo controlado por um campo magnético externo.
Fonte: Physical Review Letters

sábado, 7 de maio de 2011

A misteriosa supercondutividade

A supercondutividade é um dos poucos fenômenos naturais a reunir virtualmente todas as facetas do desenvolvimento científico e tecnológico.
 supercondutor repelindo as linhas de força de um campo magnético
© LPS (supercondutor repelindo um campo magnético)
Na descrição do fenômeno mede-se a resistência elétrica do material em função da temperatura. Quando esta decresce, o valor da resistência varia suavemente até que, em determinada temperatura, ele cai abruptamente a zero. A temperatura em que isso ocorre é conhecida como temperatura crítica (Tc) do material observado. Diz-se então que o material é supercondutor abaixo dessa temperatura.
Mas, no alvorecer de seu primeiro centenário, a supercondutividade permanece envolta em mistério e ainda não permitiu que a humanidade a utilizasse em muitas das suas tão sonhadas e plausíveis aplicações tecnológicas.
Como é usual acontecer com as grandes descobertas, a da supercondutividade resultou de um conjunto de eventos fortuitos conduzidos e observados por cientistas. No início do século passado, o físico holandês Heike Kamerlingh Onnes (1853-1926) dedicava-se à liquefação do hélio para obter temperaturas próximas do zero absoluto – ou zero Kelvin (0 K). Conseguiu a façanha em 1908, obtendo a temperatura de 4,2 K, o que lhe valeu o Prêmio Nobel de Física de 1913.
A motivação para a obtenção de temperaturas tão baixas era, principalmente, o estudo da resistência elétrica dos metais em função da temperatura. De acordo com o conhecimento da época, para levar adiante esses estudos seria preciso usar amostras metálicas de alta pureza.
O físico holandês Gilles Holst (1886-1968), um dos colaboradores de Onnes, teve a ideia de usar mercúrio em vez de um metal. Por se tratar de um líquido, a purificação do mercúrio era uma tarefa banal. Então, no dia 8 de abril de 1911, eles colocaram um tubo capilar cheio de mercúrio no hélio líquido e mediram a resistência elétrica do material em função da temperatura: a 4,2 K, a resistência era tão pequena que não podia ser medida. Estava descoberta a ‘supracondução’, primeiro termo usado por Onnes para descrever o fenômeno.
Ironicamente, tudo poderia ter sido muito mais simples. Bastaria ter colocado um pedaço qualquer de chumbo, impuro que fosse, e observariam o fenômeno em temperatura por volta de 7,2 K. Mas apenas em 1913 eles fizeram o experimento com esse metal.
Além disso, havia outro incômodo na supercondutividade: o estado de resistência zero desaparecia quando a amostra era colocada nas proximidades de um campo magnético, por mais fraco que fosse esse campo.
Sabe-se hoje que a explicação para isso é que vários supercondutores descobertos naquela época eram metais elementares, muitos deles supercondutores do tipo I. Nesses metais, o estado supercondutor existe apenas em uma fina camada superficial e é facilmente destruído por campos magnéticos acima de determinado valor que penetram no material.
Passaram-se duas décadas até que a existência de supercondutividade em ligas metálicas fosse reconhecida. Era o nascimento dos supercondutores do tipo II, com temperaturas críticas maiores e estado supercondutor distribuído em grande volume da amostra, de modo que o material resistia mais à presença de campos magnéticos.
Essa interação entre estado supercondutor e campo magnético foi bem investigada pelos físicos alemães Walther Meissner (1882-1974) e Robert Ochsenfeld (1901-1993), que, em 1933, descobriram o efeito Meissner, uma das principais assinaturas do estado supercondutor. O fenômeno está associado à capacidade que um material supercondutor tem de repelir as linhas de força de um campo magnético.
Depois da descoberta do efeito Meissner, o grande salto na pesquisa sobre supercondutividade ocorreu no final dos anos 1950, quando os físicos estadunidenses John Bardeen (1908-1991), Leon Cooper (1930-) e Robert Schrieffer (1931-) apresentaram a hoje famosa teoria BCS, que lhes valeu o Prêmio Nobel de Física de 1972. Um componente importante dessa teoria é a formação de pares de elétrons, os famosos pares de Cooper, responsáveis pela condução elétrica nos supercondutores.
Se a comunidade científica recebeu com grande entusiasmo a teoria BCS, não havia como esconder a frustração pela falta de aplicações tecnológicas da supercondutividade. Mas essa conquista ocorreu poucos anos depois, com a fabricação de fios supercondutores de Nb3Sn, NbZr e NbTi, que ainda hoje são usados nos equipamentos de ressonância magnética de laboratórios de pesquisa e de hospitais e nos eletroímãs do Grande Colisor de Hádrons (LHC), por exemplo.
Ao mesmo tempo em que os pesquisadores experimentais avançavam na elaboração de supercondutores do tipo II, por volta de 1962, o físico teórico britânico Brian Josephson (1940-) previu a existência do efeito túnel em materiais supercondutores.
Esse fenômeno resultou na invenção do Squid (dispositivo supercondutor de interferência quântica). Trata-se de um sensor que permite realizar medidas magnéticas extremamente sensíveis e é usado atualmente em inúmeros equipamentos de pesquisa e em inovadores aparelhos clínicos de magnetoencefalograma, magnetocardiograma e ressonância magnética funcional.
Nos anos 1970, o avanço científico e tecnológico associado à supercondutividade era tão lento que muita gente foi se dedicar a outras áreas de pesquisa. A história mudou em meados de 1986, com a descoberta das cerâmicas supercondutoras, algumas das quais apresentando supercondutividade abaixo de 90 K.
Encontrar um material supercondutor com temperatura crítica próxima da temperatura do nitrogênio líquido (77 K) foi um grande passo em direção ao sonho supremo da supercondutividade em temperatura ambiente (entre 294 e 296 K). Mas ninguém sabe se chegaremos lá. Na verdade, ainda estamos muito longe: o recorde atual, 138 K, pertence a um óxido à base de mercúrio, bário, cálcio e cobre.
Enquanto as cerâmicas supercondutoras não satisfazem completamente o sonho dos engenheiros, os pesquisadores da área de ciência dos materiais avançam na descoberta de compostos supercondutores, sendo o diboreto de magnésio (MgB2) o mais novo da família. Comparado com as cerâmicas, ele é medíocre em termos de temperatura crítica (39 K), mas seu estado supercondutor resiste a altíssimos campos magnéticos, o que o credencia para a indústria elétrica de alta potência.
Fonte: Ciência Hoje