quinta-feira, 18 de agosto de 2011

Esfera em dois lugares ao mesmo tempo

Cientistas estão planejando colocar uma esfera em dois lugares ao mesmo tempo.
esfera
© Revista Física (esfera com dois estados quânticos)
A ideia é trazer para o mundo macro os fenômenos estranhos da mecânica quântica.
Desde que o mundo quântico comunicou-se com o mundo macro pela primeira vez os cientistas sabem que a mecânica quântica também pode influir no movimento de objetos macroscópicos.
Mas o objetivo agora é mais ambicioso: usar uma esfera "grande" para demonstrar o fenômeno da superposição, que permite que um objeto tenha mais de um estado ao mesmo tempo.
Será que os objetos grandes podem seguir as leis quânticas como a suposição de Erwin Schrödinger no experimento mental que mostra que um gato poderia existir em uma superposição de estar vivo e morto ao mesmo tempo?
A ideia agora é atingir uma esfera de vidro de 40 nanômetros de diâmetro, localizada dentro de uma pequena cavidade, com um laser.
Isso deverá forçar a esfera a saltar de um lado da cavidade para o outro.
Mas, como a luz é quântica por natureza, a posição da esfera também deverá ser, o que a obrigará a ficar em uma superposição quântica, concatenando-se com os fótons que a atingem.
O experimento terá de ser realizado em alto vácuo e em temperaturas extremamente baixas, para que a esfera não seja perturbada pelo ruído térmico ou pelas moléculas de ar, contou Oriol Romero-Isart, do Instituto Max Planck de Óptica Quântica, na Alemanha, um dos idealizadores do experimento.
No ano passado, Aaron O'Connell e seus colegas da Universidade da Califórnia, nos Estados Unidos, demonstrou que é possível criar superposições em uma tira de metal de 60 micrômetros de comprimento.
No entanto, a separação física associada com os dois diferentes estados superpostos foi de apenas 1 femtometro (10-15 metro), equivalente à largura do núcleo de um átomo.
A nova experiência, por sua vez, pretende colocar a esfera de vidro em dois lugares totalmente distintos ao mesmo tempo, sem sobreposição.
"Em nossa proposta, o centro de massa é colocado em uma superposição de localizações espaciais separadas por uma distância maior do que o tamanho do objeto", diz Romero-Isart.
Se der certo, será a primeira vez que a superposição será demonstrada em um objeto verdadeiramente macroscópico - embora uma esfera de 40 nanômetros não possa ser vista a olho nu, ela contém milhões de átomos, sendo maior do que um vírus.
Além do experimento com sobreposição de O'Connell, o máximo que se chegou até hoje em experimentos de superposição quântica foi em uma molécula chamada fulereno, com menos de 100 átomos.
Os cientistas afirmam que o experimento, ainda sem data marcada, deverá ser um teste valioso para a própria teoria da mecânica quântica.
Observar o comportamento de tais objetos muito grandes obedecendo as leis quânticas pode ser a melhor chance de descobrir onde é que a mecânica quântica deixa de funcionar e começa a vigorar a mecânica clássica.
Fonte: New Scientist

terça-feira, 16 de agosto de 2011

Evolução da matéria após Big Bang

Algumas das perguntas mais intrigantes em foco da física básica são sobre neutrinos.
detector experimental de neutrinos Daya Bay
© Berkeley Lab (detector experimental de neutrinos Daya Bay)
Os neutrinos são partículas muito difíceis de serem detectadas por terem carga neutra, uma massa extremamente pequena e pouca interação com a matéria. Sua existência foi comprovada há cerca de 60 anos e, desde então, já se descobriu que existem três tipos de neutrinos, além de suas respectivas antipartículas.
Quanto pesam os diferentes tipos de neutrinos e qual é o mais pesado?
As respostas estão na forma como os três tipos de neutrinos - elétron, múon e tau - oscilam ou misturam-se no espaço. Para saber mais sobre os neutrinos, o detector experimental Daya Bay foi criado.
"Os resultados obtidos serão uma contribuição importante para a compreensão do papel dos neutrinos na evolução dos tipos básicos da matéria nos primeiros momentos após o Big Bang", explica Kam-Biu Luk, um professor de física da Universidade da Califórnia, em Berkeley, envolvido no projeto.
Os primeiros dados coletados deste detector mostram uma precisão maior que as medidas de outros experimentos em andamento.
O Daya Bay deu início a obtenção de dados para estabelecer um parâmetro que é fundamental na física de partículas, mas até agora não foi medido com precisão. Para medir a amplitude de oscilação dos neutrinos e chegar a este parâmetro serão necessários de dois a três anos de coleta de dados, com todos os seus oito detectores.
China e Estados Unidos lideram a colaboração internacional do Daya Bay, que inclui participação da Rússia, República Tcheca, Hong Kong e Taiwan. O experimento tem contribuições intelectuais de mais de 40 instituições de países do mundo todo.
Os neutrinos serão coletados por oito grandes detectores enterrados na parte subterrânea das montanhas adjacentes aos seis reatores nucleares de um grupo nuclear no sul da China, próximo a Hong Kong. Os reatores nucleares produzem enormes quantidades de antineutrinos, que são identificados por seus flashes.
Fonte: Berkeley Lab

terça-feira, 26 de julho de 2011

Fótons não ultrapassam velocidade da luz

Uma equipe de físicos da Universidade de Hong Kong afirma ter conseguido uma medição direta do precursor óptico de um único fóton, demonstrando que fótons individuais não podem viajar mais rápido do que a luz no vácuo.
relógio do tempo
© Revista Física (relógio do tempo)
O estudo reafirma a teoria de Einstein de que nada viaja mais rápido do que a velocidade máxima da luz e fecha um debate de uma década sobre a velocidade de um fóton individual.
Mas esta é a primeira demonstração experimental de que os chamados precursores ópticos - a frente de onda da luz, sua porção que viaja mais rapidamente - existem ao nível dos fótons individuais e que eles são, como se previa, a parte mais rápida do pacote de onda, mesmo em um meio superluminal.
Ou seja, o precursor óptico pode realmente atingir a velocidade máxima da luz c, que vale de 299.792.458 m/s.
"Os resultados ampliam nosso entendimento de como um fóton individual se move. Eles também confirmam o limite máximo de velocidade que uma informação pode ser transportada com luz," afirmou Dr. Shengwang Du, coordenador do estudo.
"Ao mostrar que os fótons individuais não podem viajar mais rápido do que a velocidade da luz, nossos resultados encerram o debate sobre a verdadeira velocidade da informação transportada por um único fóton. Nossas conclusões também poderão dar aos cientistas um quadro melhor sobre a transmissão da informação quântica," completou.
Porém, há cerca de 10 anos, a descoberta de uma propagação superluminal - acima da velocidade da luz - causou sensação ao levantar a possibilidade da viagem no tempo. Mas só até que a diferença entre a velocidade de fase e a velocidade de grupo fosse devidamente explicada.
O que ocorre é que a propagação daqueles pulsos ópticos em alguns meios específicos era apenas um efeito visual - a velocidade superluminal de um grupo de fótons não poderia ser usada para transmitir qualquer informação real.
As esperanças foram então para os fótons individuais, porque a partícula quântica fóton parece poder viajar mais rápido do que o limite da velocidade da luz no mundo clássico.
A conclusão do Dr. Shengwang Du é que os fótons individuais obedecem às regras da relatividade, confirmando a causalidade de Einstein, ou seja, que um efeito não pode ocorrer antes de sua causa. Portanto, elimina a possibilidade teórica da viagem no tempo que havia sido levantada com base na velocidade superluminal.
Isto não significa, porém, que o experimento "provou que a viagem no tempo é impossível" - ele demonstra que não é possível viajar no tempo superando o limite de velocidade do Universo com uma nave para fazer o tempo encolher.
A teoria da relatividade continua aceitando a possibilidade de uma dobradura no contínuo do espaço-tempo para chegar aonde você já esteve antes, bastando ter uma massa suficiente, e controlável, para sua realização.
Fonte: Physical Review Letters

domingo, 24 de julho de 2011

Descoberta nova partícula no Fermilab

Físicos do acelerador de partículas Fermilab confirmaram a observação de uma partícula inteiramente nova, o bárion Xi-sub-b (Ξb0).
bárions no modelo de quarks
© Fermilab (bárions no modelo de quarks)
Os bárions são partículas formadas de 3 quarks, em diferentes configurações. O próton é um bárion que consiste de dois quaks up e um quark down, e o nêutron é formado por dois quarks down e um up. A Xi-sub-b tem um quark up, um quark strange e um quark heavy bottom, significando seu peso está em torno de seis vezes o peso de um próton ou um nêutron.
A existência dessa partícula já havia sido prevista algumas vezes, mas ela ainda não havia sido observada. Ela não dura muito tempo, viajando uma fração de milímetro antes de decair em partículas mais leves.
No Fermilab durante as colisões sã geradas quase que 500 trilhões de conjuntos de partículas, assim, os pesquisadores foram capazes de verificar a existência dela múltiplas vezes. A Xi-sub-b foi registrada 25 vezes.
O Tevatron do Fermilab, onde a Xi-sub-b foi descoberta, fica baseado em Illinois nos EUA, era também o maior acelerador de partículas do mundo até a construção do LHC.
geração da nova partícula Xi-sub-b
© Fermilab (geração da nova partícula Xi-sub-b)
Experimentos no Tevatron possibilitaram descobrir os bárions Sigma-sub-b (Σb and Σb*) em 2006, observar o baryon Xi-b-menos (Ξb-) em 2007, e encontrar o Omega-sub-b (Ωb-) em 2009. O bárion Lambda-sub-b (Λb), foi descoberto no CERN.
Medir as propriedades de todas essas partículas permite aos cientistas testar e melhorar os modelos de como os quarks interagem em distâncias próximas através da força nuclear forte, como explicado pela teoria da cromodinâmica quântica (QCD).
Fonte: Fermilab

segunda-feira, 18 de julho de 2011

Rotação de galáxia pode explicar o enigma da antimatéria

Um físico da Universidade de Warwick, no Reino Unido, produziu uma solução de dimensões galácticas para explicar o enigma do "desaparecimento" da antimatéria que deve ter sido criada no surgimento do nosso Universo.
torção espacial devido rotação de galáxia
© University of Warwick (torção espacial devido rotação de galáxia)
Recentemente, observações experimentais de partículas conhecidas como káons e mésons B revelaram diferenças significativas na forma como a matéria e a antimatéria decaem.
Esta "violação da paridade de carga", ou "violação de CP", é uma anomalia inconveniente para alguns pesquisadores, mas é um fenômeno útil para outros, já que pode abrir o caminho para uma explicação de por que mais matéria do que antimatéria parece ter sobrevivido na criação do nosso Universo.
Agora, o Dr. Mark Hadley, acredita ter encontrado uma explicação testável para a aparente violação da paridade de carga, uma explicação que não apenas preserva a paridade, mas também torna a violação da paridade de carga uma explicação ainda mais plausível para a divisão entre matéria e antimatéria.
Segundo os pontos de vista aceitos na física de partículas, a natureza é fundamentalmente assimétrica. Existe uma clara assimetria da esquerda para a direita nas interações fracas e uma violação de CP bem menor em sistemas Káon, que têm sido medidos, mas nunca explicados.
Esta pesquisa sugere que os resultados experimentais em nossos laboratórios são uma consequência da rotação galáctica torcendo nosso espaço-tempo local. Se isso se mostrar correto, então a natureza seria, afinal de contas, fundamentalmente simétrica.
Parece ser fácil negligenciar o efeito de algo tão grande quanto uma galáxia, porque o que parece mais óbvio para nós é o campo gravitacional local da Terra ou do Sol, sendo ambos muito mais facilmente perceptíveis do que o efeito gravitacional que nossa galáxia como um todo exerce sobre nós.
No entanto, o Dr. Hadley acredita que o que é mais importante neste caso é um efeito gerado pelo giro de tal corpo tão maciço.
A velocidade e o momento angular do giro de um corpo tão maciço quanto nossa galáxia cria um "arrastamento" sobre o espaço e o tempo locais, torcendo o formato desse tempo-espaço e criando efeitos de dilatação do tempo.
A rotação da nossa galáxia tem um efeito de torção no nosso espaço local que é um milhão de vezes mais forte do que a causada pela rotação da Terra.
Quando a violação de CP foi observada no decaimento dos mésons B, a diferença fundamental observada entre a dissolução das versões de matéria e de antimatéria da mesma partícula é uma variação nas diferentes taxas de decaimento.
Curiosamente, embora os pesquisadores observem essa larga variação no padrão das taxas de decaimento, quando as taxas de decaimento individuais são somadas elas aumentam o total tanto para as versões de matéria quanto de antimatéria da mesma partícula. O efeito de arrastamento de toda a galáxia sobre o espaço-tempo local pode ser a explicação para essas observações.
As versões de matéria e antimatéria da mesma partícula vão manter exatamente a mesma estrutura, exceto quando elas forem imagens espelhadas umas das outras. Não é sem sentido esperar que o decaimento dessas partículas também comece como uma imagem espelhada exata uma da outra.
No entanto, não é assim que ele termina. O decaimento pode começar como uma imagem espelhada exata, mas o efeito de arrastamento induzido pela rotação da galáxia é significativo o suficiente para fazer com que as diferentes estruturas em cada partícula experimentem diferentes níveis de dilatação do tempo e, portanto, decaiam de formas diferentes.
A variação geral dos diferentes níveis de dilatação do tempo, contudo, fica na média quando cada partícula no decaimento é levada em conta - a violação de CP desaparece e a paridade é conservada.
A beleza desta teoria é que ela também pode ser testada: há previsões que podem ser feitas feitas a partir da teoria e testadas experimentalmente.
A enorme variedade de dados que já existe, que mostram a aparente violação de CP em alguns decaimentos, pode ser analisada para ver se há um padrão que está alinhado com a rotação da galáxia.
O artigo do Dr. Hadley somente trata de como o arrastamento do espaço-tempo em escala galáctica poderia explicar as observações experimentais da aparente violação de CP.
Entretanto, a explicação também deixa aberta a porta para aqueles teóricos que acreditam que a violação de CP seria uma ferramenta útil para explicar a separação entre matéria e antimatéria no nascimento do nosso Universo, e o subsequente predomínio aparente da matéria.
As estruturas primitivas do Universo podem ter tido massa e giro suficientes para gerar efeitos de arrastamento que poderiam ter tido um efeito significativo na distribuição da matéria e da antimatéria.
Fonte: Europhysics Letters

quinta-feira, 14 de julho de 2011

Gelo pode ficar fluido abaixo de -130°C

Quando a água é resfriada abaixo de zero grau, ela cristaliza, formando gelo, em condições normais de temperatura e pressão.
água no estado sólido e líquido
© Revista Física (água no estado sólido e líquido)
O físico sueco Ove Andersson, da Universidade de Umea, afirma ter conseguido pela primeira vez produzir uma água que flui lentamente a 130 graus abaixo de zero. Ele fez o experimento submetendo a água congelada a uma pressão 10.000 vezes maior do que a pressão atmosférica normal.
"A descoberta é também interessante na medida que nos ajuda a compreender as muitas propriedades anormais da água. Por exemplo, foi previsto que a água teria duas diferentes fases líquidas em baixas temperaturas. A descoberta confirma a existência de uma dessas duas fases," explica Andersson.
Recentemente foi descoberta uma nova fase quântica da água, mas essas "propriedades anormais" a que o pesquisador se refere estão longe de serem totalmente compreendidas.
O experimento foi feito expondo gelo cristalino comum, no qual os átomos estão dispostos de forma ordenada, a pressões crescentes em temperaturas abaixo de -130ºC.
A ordem das moléculas colapsou e o gelo se transformou em gelo amorfo, com uma disposição aleatória das moléculas de água.
"Quando eu então elevei a temperatura, o gelo transformou-se em água de fluidez lenta. Essa água é como a água comum, mas sua densidade é 35 por cento maior, e as moléculas de água se movem relativamente devagar, ou seja, a viscosidade é alta," explica o pesquisador.
A água tem algumas propriedades anômalas, como por exemplo, na água congelada, cuja temperatura está abaixo de zero, sua densidade diminui quando a temperatura decresce e aumenta quando a temperatura se eleva.
"Há desvios que são conhecidos há muitos anos, e eles são muito importantes. Contudo, não há nenhuma explicação geral para eles, mas a resposta pode estar na forma como as propriedades da água são afetadas quando ela é exposta a altas pressões," defende Andersson.
Teorias preveem que a água exista em duas diferentes fases líquidas, uma com baixa densidade e outra com alta densidade, com a transição entre as fases ocorrendo a baixas temperaturas e altas pressões.
Quando a água esfria e se aproxima dessa zona de transição, pode haver uma transformação gradual que afeta as propriedades da água.
Infelizmente, esta transformação é difícil de estudar, pois a água normalmente cristaliza. Uma forma alternativa de estudar essa zona é primeiro criar o gelo amorfo.
As novas descobertas mostram que o gelo amorfo provavelmente se converte em água de alta viscosidade quando é aquecido sob alta pressão.
É possível que essa água fria e de fluidez lenta exista em corpos celestes de grande massa.
Fonte: ScienceDaily

segunda-feira, 4 de julho de 2011

Esqueleto da turbulência

Embora a turbulência seja um fenômeno que se caracteriza pela movimentação caótica das partículas de um fluido, existem técnicas capazes de identificar estruturas coerentes, permitindo a previsão desses movimentos.
fluxos turbulentos
© Astrophysical Journal Letters (fluxos turbulentos)
Estudos sobre a dispersão de cinzas vulcânicas, ciclones, tornados, tsunamis, ciclos solares, formação de planetas e estrelas, o Universo primordial e outras áreas tão diversas como o transporte de sangue em sistema cardiovascular e a fusão termonuclear controlada poderão se beneficiar destas pesquisas.
Os trabalhos foram liderados pelo físico espacial Abraham Chian, do Instituto Nacional de Pesquisas Espaciais (Inpe), e pelo matemático computacional Erico Rempel, do Instituto Tecnológico de Aeronáutica (ITA), em São José dos Campos (SP), em cooperação com um colega da Universidade de Estocolmo (Suécia) e um aluno de doutorado do Inpe.
Um dos estudos foi concluído durante a visita de Chian ao Instituto de Tecnologia da Califórnia, nos Estados Unidos, com apoio de uma bolsa da Fundação Guggenheim. O estudo contou com a participação de Pablo Muñoz, estudante de doutorado do Inpe, que recebeu prêmio de melhor trabalho de alunos durante o 9º Congresso Latino-Americano de Geofísica Espacial realizado na Costa Rica, em abril de 2011.
Os cientistas estudaram o campo magnético relacionado às estruturas coerentes da turbulência verificada no plasma solar. De acordo com Chian, utilizando os dados fornecidos pelos instrumentos a bordo de quatro sondas espaciais da missão Cluster, o grupo detectou em frente a uma nuvem magnética interplanetária duas estruturas coerentes na forma denominada como “lâminas de corrente”.
“A análise de dados de flutuações magnéticas na vizinhança dessas estruturas coerentes demonstrou que o vento solar exibe o comportamento de turbulência bem desenvolvida do tipo Kolmogorov, semelhante às turbulências encontradas na borda de uma máquina de plasma de fusão termonuclear, na atmosfera solar, no meio interestelar, em um túnel de vento e na copa da floresta amazônica, para citar alguns exemplos”, disse Chian à Agência FAPESP.
A caracterização da dinâmica da borda dianteira de uma nuvem magnética interplanetária é fundamental para o monitoramento e a previsão de clima espacial, uma vez que existe a evidência de que a tempestade magnética na Terra pode ser iniciada pela chegada de uma nuvem magnética proveniente de uma erupção solar.
“Os eventos extremos na natureza, tais como ciclones, tsunamis, a precipitação excessiva de chuvas em regiões localizadas, manchas solares e ejeções de massas coronais interplanetárias, estão relacionados às estruturas coerentes que dominam a dinâmica da turbulência e podem causar grandes impactos no clima terrestre, clima espacial e ambiente solar-terrestre”, explicou.
O segundo trabalho foi iniciado durante o estágio de pós-doutorado de Rempel na Universidade de Cambridge, com bolsa da FAPESP, e contou com a colaboração de Chian e de Axel Brandenburg, professor do Instituto Nórdico de Astrofísica Teórica e da Universidade de Estocolmo (Suécia).
De acordo com Chian, Brandenburg é um dos pioneiros do modelo de dínamo cósmico. “Esse modelo de dínamo pode explicar a origem e a evolução de ciclos solares, por exemplo, o aparecimento de períodos prolongados de atividades calmas do Sol conhecidos como os Grandes Mínimos”, disse.
No estudo, o grupo investigou as estruturas coerentes lagrangianas da turbulência astrofísica, com base na simulação numérica de um modelo não-linear de dínamo.
As estruturas coerentes lagrangianas são linhas ou superfícies materiais que atuam como barreiras de transporte na turbulência. Inspirado pela teoria de caos, esse conceito foi introduzido há quase dez anos por George Haller, atualmente professor de engenharia mecânica da Universidade de McGill, no Canadá.
“Essa nova técnica não-linear permite uma visualização mais acurada da dinâmica e estrutura complexa de fluidos, que não seria possível usando as técnicas tradicionais baseadas em formalismo euleriano”, disse Chian.
Essas estruturas são determinadas por meio da computação do máximo expoente de Lyapunov de tempo finito, que fornece o valor médio da taxa máxima de divergência ou do alongamento entre as trajetórias das partículas num certo intervalo de tempo.
“Isso permite a identificação de trajetórias atrativas e repulsivas em imagens obtidas das simulações numéricas ou imagens reais do campo de velocidade de um fluido, revelando o esqueleto da turbulência que forma as barreiras para o transporte das partículas. Os cruzamentos entre essas barreiras são responsáveis pela mistura caótica de partículas”, disse.
O estudo de estruturas coerentes lagrangianas, segundo os autores, tem aplicações em diversas áreas, por exemplo, a previsão do movimento dos poluentes na atmosfera e no mar, a migração dos fitoplânctons no oceano, o fluxo aperiódico em furacões, a interação entre o fluido e a estrutura no entorno das válvulas cardíacas e o plasma termonuclear em máquinas de confinamento magnético.
De acordo com Rempel, o grupo brasileiro foi o primeiro a introduzir essa nova técnica para a astrofísica. Usando as imagens da turbulência de plasma simuladas para modelar a geração do campo magnético nas camadas convectivas do Sol e de outras estrelas, foi comprovado pelo estudo que as estruturas coerentes lagrangianas são capazes de distinguir nitidamente os detalhes da complexidade da distribuição espacial de barreiras de transporte entre dois regimes diferentes do dínamo.
“Desde que o conceito foi desenvolvido por Haller, a técnica foi aplicada para problemas de fluidos, tanto em simulações como em dados observacionais voltados para dispersão de poluentes nos oceanos, por exemplo, mas não tinham ainda sido utilizadas, no campo da astrofísica, em fluidos com campo magnético”, disse Rempel.
Essas estruturas coerentes marcam certas direções preferenciais das partículas de fluidos em movimento. Quando um poluente é arrastado pelos vórtices e correntes do oceano a identificação das estruturas coerentes permite detectar linhas de atração que possibilitam prever para onde o fluido irá se movimentar. O mesmo fenômeno pode acontecer, por exemplo, com as cinzas expelidas na atmosfera por um vulcão.
“No enfoque da astrofísica, nosso objetivo era saber qual o impacto do campo magnético sobre os movimentos turbulentos do plasma de uma estrela”, disse Rempel, que coordenou o projeto Simulação numérica e análise de transição para turbulência em plasmas espaciais: uma abordagem baseada em sistemas dinâmicos, apoiado pela FAPESP.
Segundo ele, na camada convectiva do Sol, uma região intensamente turbulenta, as partículas se movimentam como se estivessem aprisionadas em vórtices. As estuturas coerentes lagrangianas marcam as fronteiras desses vórtices, delimitando as regiões do fluido entre as quais as partículas não se misturam.
“Quando fazemos o estudo das estruturas coerentes, vemos que algumas partículas podem se cruzar, passando para outras regiões do fluido. No caso da estrela, observamos que, quando o campo magnético ficava mais forte, existiam menos cruzamentos – isto é, a turbulência diminuía”, disse.
Esses resultados, segundo Rempel, foram obtidos a partir de uma simulação ainda bastante simplificada. “A partir desse modelo acadêmico, vamos agora procurar estender essa aplicação a modelos mais realistas da camada convectiva do Sol”, disse.
Fonte: Agência FAPESP e Astrophysical Journal Letters

sexta-feira, 1 de julho de 2011

A granularidade do espaço

O Telescópio de Raios Gama Integral, da Agência Espacial Europeia, revelou que qualquer "granulação" quântica do espaço deve ter uma escala muito menor do que se previa.
explosão de raios gama
© ESA (explosão de raios gama)
A Teoria Geral da Relatividade de Einstein descreve as propriedades da gravidade e assume que o espaço é um tecido suave e contínuo.
No entanto, a teoria quântica sugere que o espaço deve ser granulado quando visto em uma escala suficientemente pequena, como a areia em uma praia.
Uma das maiores ocupações dos físicos na atualidade está na tentativa de conectar estes dois conceitos, criando uma única teoria da gravitação quântica.
Agora, o Integral colocou novos limites muito mais rigorosos para o tamanho desses "grãos" quânticos no espaço, mostrando que eles devem ser muito menores do que algumas ideias sobre a gravidade quântica vinham sugerindo.
Segundo os cálculos, os minúsculos grãos poderiam afetar a forma com que os raios gama viajam pelo espaço.
Os grãos devem "torcer" os raios de luz, mudando a direção na qual eles oscilam, cuja propriedade é denominada polarização.
Os raios gama de alta energia devem ser torcidos mais do que os raios gama de energias mais baixas, e a diferença na polarização pode ser usada para estimar o tamanho dos grânulos do espaço.
Philippe Laurent e seus colegas usaram dados do instrumento IBIS, a bordo do observatório Integral, para procurar diferenças de polarização entre raios gama de alta e baixa energia, emitidos durante uma das mais poderosas explosões de raios gama (GRBs) já vistas.
As GRBs vêm de algumas das explosões mais energéticas conhecidas no Universo. Acredita-se que a maioria delas ocorra quando estrelas muito maciças colapsam para formar estrelas de nêutrons ou buracos negros.
Esse colapso gera um gigantesco pulso de raios gama, com duração de poucos segundos até alguns minutos - mas, durante esse tempo, o pulso ofusca o brilho de galáxias inteiras.
O GRB 041219A ocorreu em 19 de dezembro de 2004 e foi imediatamente classificado no topo da lista dos GRBs em brilho. Ele foi tão brilhante que o Integral foi capaz de medir a polarização dos seus raios gama com precisão.
Os cientistas então procuraram diferenças na polarização a diferentes energias, mas não encontraram nenhuma dentro dos limites de precisão dos dados.
Algumas teorias sugerem que a natureza quântica do espaço - sua "granularidade" - deve manifestar-se na chamada escala de Planck: a 10-35 metro.
No entanto, as observações do Integral são cerca de 10.000 vezes mais precisas do que qualquer medição anterior e mostram que qualquer grão quântico deve estar em torno dos 10-48 metro ou menor.
"Este é um resultado muito importante em física fundamental e descarta algumas teorias das cordas e teorias da gravidade quântica em loop," afirmou o Dr. Laurent.
Fonte: ESA

quinta-feira, 30 de junho de 2011

O maior campo magnético é criado

Foi batido um novo recorde mundial para os campos magnéticos por físicos alemães, ao alcançar a marca dos 91,4 T (teslas).
bobina dupla
© Helmholtz-Zentrum (bobina dupla)
Para alcançar este recorde, Sergei Zherlitsyn e seus colegas do Centro Helmholtz desenvolveram uma bobina pesando aproximadamente 200 quilogramas.
Ao percorrer a bobina, uma fortíssima corrente elétrica cria o campo magnético, por um período de alguns milissegundos, sob risco de explodir a própria bobina.
O campo magnético influencia a própria corrente elétrica que o gera, tentando empurrar a corrente elétrica para fora da bobina. Quanto mais forte a corrente flui, mais fortes são essas forças.
"A 25 tesla, o cobre seria dilacerado," explica Joachim Wosnitza, que construiu a bobina. Para comparação, um ímã de geladeira comum tem 0,05 tesla.
"Apesar do recorde, não estamos realmente muito interessados em alcançar valores de campo cada vez mais altos, mas sim em usá-los para a pesquisa em ciência dos materiais", explica o pesquisador.
Quanto mais poderosos forem os campos magnéticos, mais precisamente os cientistas poderão estudar novos materiais para a construção de componentes eletrônicos inovadores, ou os chamados supercondutores, que conduzem eletricidade sem qualquer resistência.
Técnicas assim permitiram que a mesma equipe fizesse com que o semicondutor germânio se tornasse supercondutor a temperatura ambiente.
Os teóricos estimam que o estudo e a manipulação precisa desses novos materiais exigirão campos magnéticos entre 90 e 100 teslas.
A 100 teslas, porém, a força de Lorentz no interior do cobre poderia gerar uma pressão que equivale a 40.000 vezes a pressão do ar ao nível do mar.
banco de capacitores
© Helmholtz-Zentrum (banco de capacitores)
Uma força assim destruiria o cobre de forma instantânea, em uma explosão.
Por isso, para construir suas bobinas, os pesquisadores usam ligas de cobre especiais, capazes de suportar 10 mil vezes a pressão atmosférica.
Ainda muito pouco, sendo apenas um quarto do necessário para alcançar os 100 teslas.
A primeira saída encontrada foi unir os fios de cobre da bobina com fibras sintéticas de carbono, usadas em coletes à prova de balas, que pressionam o cobre de fora para dentro.
Isso permite construir uma bobina que alcança por volta de 50 teslas.
Para obter os 91,4 teslas do maior campo magnético já gerado, os pesquisadores construíram duas bobinas, colocando uma dentro da outra.
Ainda assim, o aparato só funciona durante alguns milissegundos, consumindo a energia fornecida por um gigantesco banco de capacitores.
Fonte: Helmholtz-Zentrum

sábado, 25 de junho de 2011

Transformação do neutrino

Cientistas acreditam estar um passo mais perto de entender por que a matéria e não a antimatéria domina o Universo - quantidades iguais de ambos teriam sido desencadeadas pelo Big Bang.
Super-Kamiokande
© Observatório Kamioka (Super-Kamiokande)
Uma equipe internacional de pesquisadores no Japão descobriu que os três tipos de neutrino, uma das partículas básicas da natureza, podem se transformar um no outro, o que poderia ser sua vantagem para o antineutrino.
O experimento foi realizado pelo Super-Kamiokande, um detector de neutrinos localizado 1 km debaixo da terra, em uma mina na cidade de Hida, no Japão. A estrutura cilíndrica tem 42 m de altura e 39,3 m de largura e é formada por 50 mil t de água pura rodeada por mais de 13 mil tubos fotomultiplicadores. O neutrino, ao colidir com os núcleos dos átomos de água emite radiação, e esta é captada pelos fotomultiplicadores(as bolas espalhadas na água na foto acima).
Em 1998 e 2001, os cientistas já haviam descoberto mudanças nas oscilações de neutrinos atmosféricos e aqueles emitidos pelo Sol. Os neutrinos têm três tipos, ou três "sabores". Já sabe-se que esses podem se transformar de duas formas, e o Super-Kamiokande descobriu mais uma forma.
Na natureza, as partículas fundamentais são divididas em três tipos. Existem por exemplo os léptons elétron, múon e tau - esta mesma divisão é utilizada para os neutrinos. As duas formas de transformação anteriormente observadas eram neutrinos de tau se transformarem em neutrinos de múon e vice-versa. Agora, o Super-Kamiokande trouxe à tona mais uma: neutrinos de múon se transformaram em neutrinos de elétrons, o que indica que todas as transformações são possíveis para essa partícula.
Essa capacidade de transformação de um tipo em outro que pode ser a diferença crucial entre o neutrino e o antineutrino e a predominância do primeiro no Universo.
Fonte: Universidade de Tóquio

sexta-feira, 10 de junho de 2011

Primeiro circuito integrado de grafeno

Cientistas da IBM apresentaram o primeiro circuito integrado feito com componentes de grafeno.
transístor de grafeno e um par de bobinas
© Science (transístor de grafeno e um par de bobinas)
Embora muito simples, a demonstração é um passo importante na transição do grafeno da categoria de material promissor para material útil.
Em 2009, um grupo do MIT havia construído um chip de grafeno, bastante rudimentar, mas mostrando que seria possível utilizar as folhas de carbono com apenas um átomo de espessura em conjunto com componentes da eletrônica tradicional.
Em 2010, um outro grupo da própria IBM construiu um transístor de grafeno que bateu o recorde mundial de velocidade, operando a 300 GHz.
Agora, Phaedon Avouris e seus colegas construíram um circuito integrado de verdade, usando equipamentos industriais e componentes de grafeno.
O circuito consiste de um único transístor de grafeno com um par de indutores integrados em uma pastilha de carbeto de silício (SiC).
O maior avanço desse pequeno circuito está no desenvolvimento de uma técnica para fixar o grafeno no silício, já que vinha sendo difícil convencê-lo a aderir nos metais ou nos óxidos usados pela indústria eletrônica.
Avouris e seus colegas tiveram uma ideia genial: em vez de fabricar o grafeno e depois fixá-lo sobre o silício, eles pegaram o carbeto de silício, que é formado de silício e carbono, e retiraram o silício da camada superficial, deixando apenas os átomos de carbono, que formaram o grafeno.
A litografia fez o resto, desenhando o transístor no grafeno que já nasceu fixado no silício.
Os indutores (bobinas) foram construídos de alumínio diretamente sobre a pastilha. Uma camada de 120 nanômetros de dióxido de silício, depositado por evaporação, isola as voltas das bobinas do restante do circuito.
circuito funciona como um misturador de frequências
© Science (circuito funciona como um misturador de frequências)
O circuito funciona como um misturador de frequências, operando a 10 GHz. Misturadores de frequência são utilizados em sistema de comunicação por rádio como, por exemplo, nas redes de comunicações sem fios.
O próximo passo da pesquisa será otimizar o transístor, para que ele opere em velocidades mais altas, e projetar circuitos mais complexos.
É grande a expectativa na indústria para a construção de circuitos híbridos, incluindo componentes feitos com os semicondutores tradicionais e componentes feitos com grafeno.
Fonte: Science

Grafeno na spintrônica

Filme de carbono com apenas um átomo de espessura e dotado de uma estrutura hexagonal, o grafeno é uma das esperanças para o desenvolvimento de uma nova eletrônica, a spintrônica, que poderá levar ao surgimento de computadores quânticos, ainda menores e mais rápidos.
folhas de grafeno
© Universidade de Manchester (folhas de grafeno)
Nesse novo mundo, a informação magnética não seria transmitida apenas pela corrente elétrica, como ocorre nos micros atuais, mas fundamentalmente por outra propriedade dos elétrons, por seu spin. Como só existem dois valores possíveis para o spin, esse estado do elétron pode ser útil para armazenar e propagar dados na forma de bits. Mas o sinal gerado pela corrente de spin é extremamente fraco e tende a se propagar em todas as direções, duas características que dificultam seu controle e detecção. De acordo com um trabalho recente de físicos teóricos brasileiros, esses empecilhos são aparentemente contornáveis no grafeno, um candidato a tomar o lugar do silício nos circuitos integrados do futuro: o spin de seus elétrons pode ser amplificado e controlado por meio de um mecanismo que funciona como uma lente, criando a possibilidade de o material ser usado como um nanotransistor quântico.
“Provamos matematicamente que o grafeno pode atuar como uma lente e redirecionar a corrente de spin de uma fonte magnética para uma determinada região onde se encontra uma unidade receptora”, diz o físico brasileiro Mauro Ferreira, do Trinity College, de Dublin, que participou do estudo, publicado na edição de maio do Journal of Physics: Condensed Matter, ao lado de colegas da Universidade Federal Fluminense (UFF). “Dessa forma, uma parte da informação que seria perdida pode ser resgatada.” Nada disso ainda foi feito em laboratório, apenas esboçado em trabalhos teóricos. Depois de uma série de cálculos, os pesquisadores afirmam que o grafeno, um material mais resistente do que o aço e melhor condutor de eletricidade do que o cobre, pode se comportar como um transistor de spin se exposto a certas condições. O artigo é o terceiro do grupo de físicos a explorar teoricamente as possibilidades do uso de nanotubos de carbono e do grafeno na spintrônica. Os dois estudos anteriores saíram no ano passado na Physical Review B.
Para transformar o spin do grafeno num meio capaz de transmitir informação num sistema quântico, os brasileiros trabalharam com um cenário bastante particular. A criação de uma corrente de spin foi simulada por meio da inserção de um objeto magnético na arquitetura atômica em forma de colmeia do grafeno, composta apenas por carbonos. “Imagine um pequeno ímã em movimento rotatório numa folha de grafeno”, compara Ferreira. A presença desse objeto estranho faria o spin dos elétrons de carbono vibrarem sucessivamente da mesma maneira. A vibração do spin de um elétron seria então repassada a seu vizinho e assim por diante. O problema é que uma corrente de spin se dissemina, sem controle, por todas as direções do grafeno. “A exemplo das ondas criadas por uma pedra jogada num lago, essa corrente é mais fraca à medida que se distancia de sua origem”, diz o pesquisador
O passo seguinte da simulação foi dividir o filme de grafeno em duas partes e alterar a densidade de carga elétrica numa delas. O procedimento geraria nesse segmento do grafeno um potencial de porta, um caminho para o qual a corrente de spin se dirigiria e por meio do qual se disseminaria pelo material. “A corrente de spin não dissipa calor no grafeno e a perda de energia num sistema assim seria mínima. Um dipositivo que funcionasse por meio dessa corrente consumiria pouquíssima energia”, afirma o físico Roberto Bechara Muniz, da UFF, outro autor do trabalho. Além de canalizar a corrente de spin para uma região específica do grafeno e, assim, amplificar seu sinal, a criação da porta funcionaria como uma chave para ligar e desligar o transistor. Permitiria barrar ou liberar a passagem da corrente de spin. “Nosso trabalho dá apenas uma pequena contribuição sobre essa questão, mas mostra ser possível controlar a corrente de spin no grafeno”, diz Muniz. Especialista em spintrônica, José Carlos Egues, do Instituto de Física de São Carlos, da Universidade de São Paulo, que não participou dos trabalhos de Ferreira e Muniz, considera os resultados interessantes, mas ainda muito preliminares. “Mais estudos são necessários para explorar a viabilidade da proposta e a sua relevância para aplicações em spintrônica”, comenta Egues.
Por didatismo, o spin é descrito como o movimento feito por um elétron ao girar em torno do próprio eixo como um pião. Há duas formas de spin, uma com rotação para cima e outra para baixo. Na verdade, o fenômeno é mais complicado do que isso e um elétron pode apresentar simultaneamente as duas variantes de spin. Em termos práticos, o desenvolvimento de uma nova eletrônica depende do pleno domínio da corrente de spin, como se tem atualmente da corrente elétrica, e de ter meios eficazes de controlar a conversão de um tipo de spin para outro. Físicos de todo o mundo têm tentado criar correntes de spin em materiais semicondutores e também no grafeno, um cristal bidimensional com um conjunto de propriedades singulares.
Num artigo publicado na revista científica americana Science de 15 de abril deste ano, Andre Geim e Konstantin Novoselov, físicos da Universidade de Manchester que ganharam o Nobel de Física de 2010 por seus trabalhos com o grafeno, mostraram indícios de que esse material pode mesmo transmitir uma corrente de spin. Eles aplicaram um campo elétrico entre dois eletrodos situados um milionésimo de metro de uma folha desse material e mediram a voltagem numa região distante 10 milionésimos de metro dos eletrodos. Quando o grafeno foi exposto a um campo magnético, a voltagem se tornou mais elevada. Essa variação, segundo os autores do estudo, é uma evidência de que há uma corrente de spin passando pelo grafeno.
Fonte: FAPESP (Pesquisa)

quinta-feira, 9 de junho de 2011

Ímã líquido gera magnetismo pelo movimento

A Terra, o Sol e outros corpos celestes geram campos magnéticos através do movimento dos seus fluidos internos condutores de eletricidade.
geodínamo
© Los Alamos National Laboratory (geodínamo)
Estes fluidos são frequentemente muitíssimo turbulentos.
Mas pode ser possível gerar magnetismo em um fluido que flui com suavidade, por exemplo, em um tanque de sódio líquido posto para girar suavemente.
Uma equipe de físicos anunciou ter alcançado uma amplificação de oito vezes de um campo magnético promissor. Na próxima fase de seu projeto, eles esperam demonstrar um campo magnético auto-sustentável, como ocorre na Terra, assim como em todos os planetas e estrelas.
Na última década, pesquisadores conseguiram criar campos magnéticos em laboratório usando os chamados dínamos fluidos. Assim como seus equivalentes astronômicos, esses sistemas são baseados na rotação de um fluido, tipicamente o sódio, devido à sua alta condutividade.
Um pequeno campo magnético inicial, aplicado ao tanque com o sódio em rotação, pode gerar uma corrente elétrica.
Esta, por sua vez, gera mais campo magnético, criando um círculo virtuoso que pode levar a um crescimento exponencial do campo.
Em vez de discutir as complexas interações corrente-campo magnético, os pesquisadores frequentemente descrevem essa amplificação como um processo de alongamento e dobramento das linhas do campo magnético, que são essencialmente arrastadas pelo fluido.
Mas não tem havido consenso nessas explicações. Alguns pesquisadores argumentam que o reforço do campo magnético é gerado pela turbulência, que cria vórtices capazes de realimentar o processo.
Outros, porém, argumentam que a turbulência é aleatória - dessa forma, alguns turbilhões atuarão no sentido da amplificação, enquanto outros terão o efeito oposto, tornando o campo magnético mais difuso e mais fraco.
Stirling Colgate e seus colegas do Laboratório Nacional Los Álamos, nos Estados Unidos, decidiram então partir para trabalhar com dínamos fluidos sem turbulência, nos quais o sódio é girado suavemente, de maneira contínua e previsível.
Isso permitirá descrever com bastante precisão o papel da turbulência nesses processos essenciais ao "funcionamento do cosmos".
O fluido está dentro de um tanque em forma de anel, de 30 centímetros de altura, cujo raio interno é metade do raio externo.
Em vez de usar hélices, o fluido é rotacionado girando as paredes do tanque. A parede interna gira a 68 rotações por segundo, enquanto a parede externa gira um quarto mais rápido.
Esse fluxo suave reproduz o que se acredita acontecer no interior das estrelas jovens e ao redor dos buracos negros.
No último experimento, a equipe aplicou um campo magnético de cerca de 12 G (gauss), apontando radialmente para dentro.
Como era de se esperar de um líquido condutor de eletricidade, o sódio "agarrou" as linhas do campo magnético e as fez girar em torno do tanque em forma de anel.
Este envolvimento e alongamento, que é chamado de efeito Ômega, criou um campo magnético na direção do fluxo do sódio que chegou a ser oito vezes mais forte do que o campo original.
Mas o efeito Ômega não é suficiente para que um campo magnético se auto-sustente. Para completar o dínamo, a equipe vai precisar dobrar uma parte do campo amplificado na direção radial original.
Isto poderá ser feito pelo chamado efeito Alfa, que resulta de movimento helicoidal do fluido.
A turbulência, com os seus redemoinhos espirais, é uma fonte natural de movimento helicoidal, mas o grupo espera criar um efeito Alfa suave, sem turbulência, disparando jatos de sódio a partir do fundo do tanque rotativo.
"A mensagem importante em termos de física é que os fluxos laminares podem produzir campos magnéticos em grande escala mais facilmente do que os fluxos turbulentos," comentou Cary Forest, da Universidade de Wisconsin, que trabalha em outro experimento de dínamo fluido.
Mas o próprio Forest salienta que a turbulência tem sido observada nos dínamos estelares e galácticos. Outros pesquisadores admitem que a turbulência diminui a eficiência dos dínamos fluidos, mas que a turbulência, seria inevitável.
O projeto Alfa-Ômega pode tirar essas dúvidas. E, se Fores e outros tiverem razão, exatamente por não reproduzir com naturalidade os processos que ocorrem nas estrelas e nos planetas, o experimento poderá revelar o peso que a turbulência exerce neles. E, também, será possível gerar campos magnéticos de alta potência, eventualmente com diversas aplicações práticas.
Fonte: Physical Review Letters

terça-feira, 7 de junho de 2011

Interpretações quânticas são questionadas

O cientista Aephraim Steinberg, da Universidade de Toronto, no Canadá, coordenou uma equipe internacional de experimentalistas que demonstrou que a tecnologia atual já é capaz de fazer medições sem afetar as partículas quânticas, e que estas partículas podem se comportar como ondas e partículas ao mesmo tempo.
experimento da dupla fenda
© Revista Física (experimento da dupla fenda)
Uma das demonstrações mais famosas da mecânica quântica é o chamado experimento da dupla fenda, que ensejou as discussões entre Niels Bohr e Albert Einstein, em 1927.
Quando um canhão dispara elétrons rumo a uma fenda, elas batem do outro lado de forma discreta. Mas quando a chapa tem duas fendas, o que se vê do outro lado é um padrão de interferência.
As seções claras e escuras do padrão de interferência correspondem aos picos e vales das ondas interferindo mutuamente, mostrando que as "partículas" passam simultaneamente pelas duas fendas, ou seja, comportam-se como ondas.
Contudo, quando se tenta colocar um detector em cada fenda, para ver em qual delas a partícula está passando, o padrão de interferência é destruído. Portanto, não se pode observar a partícula passando por uma das duas fendas sem destruir o efeito de interferência.
Isso deu origem ao famoso Princípio da Incerteza de Heisenberg, que estabelece que não é possível, ao mesmo tempo, medir a posição e o momento de uma partícula quântica.
Atualmente, a tecnologia alcançou um ponto que permite a realização de experimentos detalhados em sistemas quânticos individuais, com aplicações potenciais como a criptografia e a computação quântica.
Os pesquisadores reconstruíram o experimento da dupla fenda substituindo o canhão de elétrons por uma "lanterna" capaz de disparar um fóton de cada vez.
Foi utilizado um cristal de quartzo chamado calcita, que tem um efeito sobre a luz que depende da direção na qual a luz está se propagando, para medir a direção como uma função da posição.
Com isto, foi possível medir uma média tanto da posição quanto do momento do fóton, uma vez que continua sendo impossível determinar as informações para um fóton em particular. A imagem a seguir mostra a densidade de probabilidade que descreve a trajetória característica dos fótons.
densidade de probabilidade
© Science (densidade de probabilidade)
O resultado é uma demonstração realística, mas nada convencional, de que o fóton comporta-se simultaneamente como partícula e como onda, continuando a gerar o padrão de interferência típico das ondas mesmo quando passa por uma única fenda.
Isto foi possível de se medir porque o experimento é capaz de recompor a trajetória média dos fótons, sem interferir com eles, através de uma técnica chamada de medição fraca.
De fato, o experimento terá grande impacto filosófico, uma vez que descreve diretamente sobre as diversas reflexões da mecânica quântica, incluindo a interpretação de Copenhague, e das interpretações menos convencionais de David Bohm e Louis de Broglie.
A chamada teoria da onda piloto, por exemplo, propõe que cada partícula tem uma trajetória bem definida, que a leva diretamente a uma das fendas, enquanto sua onda associada passa pelas duas fendas simultaneamente. O experimento parece dar sustentação a essa interpretação.
O experimento mostra que o Princípio da Incerteza da Heisenberg não é tão rígido quanto parecia, seguindo uma tendência que já vem sendo demonstrada em outros trabalhos.
Esta pesquisa poderá ter aplicações práticas na computação quântica. As portas lógicas dos computadores quânticos poderão ser capazes de repetir uma operação quando a checagem de erro não se mostrar convincente.
Fonte: Science

quarta-feira, 1 de junho de 2011

O elétron é quase perfeitamente redondo

Pesquisadores britânicos descobriram que o elétron é quae que totalmente redondo. Eles fizeram a medição mais precisa até hoje da forma de um elétron, que demonstra que ele é uma esfera quase perfeita.
elétrons orbitando o núcleo do átomo
© ALAMY (elétrons orbitando o núcleo do átomo)
As partículas subatômicas só diferem de ser perfeitamente redondas por menos de 0,000000000000000000000000001 centímetros. Isso significa que se um elétron for ampliado para o tamanho do Sistema Solar, ainda parecerá esférico dentro da largura de um fio de cabelo humano.
Os físicos estudaram os elétrons dentro de moléculas chamadas de flúor itérbio. Utilizando um laser, eles fizeram medições do movimento dos elétrons, procurando qualquer balanço que sugerisse que a forma da molécula era distorcida (o que ocorreria se os elétrons não fossem perfeitamente redondos).
Por mais de uma década, tais imperfeições não foram observadas. Foi uma medida muito difícil de fazer, mas agora esse conhecimento vai melhorar teorias fundamentais da física.
Os resultados são importantes no estudo da antimatéria, uma substância elusiva que se comporta da mesma maneira como a matéria comum, exceto que tem uma carga elétrica oposta.
Por exemplo, a versão de antimatéria dos elétrons com carga negativa é a carga positiva anti-elétron, conhecido como pósitron. Compreender a forma do elétron pode ajudar os pesquisadores a entender como os pósitrons se comportam e como a matéria difere da antimatéria.
Segundo as leis da física atualmente aceitas, o Big Bang criou tanta antimatéria quanto matéria comum. No entanto, desde que o conceito foi concebido pelo ganhador do Prêmio Nobel Paul Dirac, em 1928, a antimatéria só foi encontrada em pequenas quantidades a partir de fontes como raios cósmicos e algumas substâncias radioativas.
Os cientistas querem explicar essa falta de antimatéria procurando por pequenas diferenças entre o comportamento da matéria e da antimatéria, que até agora não foi observada.
O fato dos pesquisadores descobrirem que os elétrons não são redondos pode provar que o comportamento da matéria e da antimatéria difere mais do que os físicos pensavam anteriormente. Assim, poderia explicar como toda a antimatéria desapareceu do universo, deixando apenas a matéria comum.
Segundo cientistas, os astrônomos já procuraram direto na borda do universo visível, e mesmo eles só viram matéria comum, e nenhum esconderijo para uma grande porção de antimatéria. Os físicos não sabem o que aconteceu com ela, mas essa pesquisa pode ajudar a confirmar ou descartar algumas das explicações possíveis.
Fonte: Nature

sexta-feira, 20 de maio de 2011

O processador quântico

Em 2007, a empresa canadense D-Wave, então recém-criada a partir dos laboratórios da Universidade da Colúmbia Britânica, afirmou ter construído o primeiro processador quântico.
processador quântico de 128 qubits
© D-Wave (processador quântico de 128 qubits)
Físicos de todo o mundo mostraram-se céticos com a alegação: o processador era interessante, mas todos duvidavam de que ele usasse fenômenos quânticos para funcionar.
Agora, pela primeira vez, a empresa decidiu publicar um artigo científico dando alguns detalhes sobre o funcionamento do seu processador e revelando o papel que a mecânica quântica representa em seu funcionamento.
Ao contrário de todas as pesquisas na área da computação quântica, que estimam que décadas de pesquisas ainda nos separam desses computadores futurísticos, o chip da D-Wave foi fabricado usando as técnicas tradicionais da microeletrônica, embora usando materiais supercondutores.
O processador possui 128 qubits supercondutores e 24.000 componentes conhecidos como junções Josephson, ou qubits de fase Josephson. Como todo material supercondutor, ele funciona sob temperaturas criogênicas.
"Nós já sabemos há algum tempo que esses processadores são extremamente eficazes em resolver os problemas para os quais eles foram projetados, mas esta é a primeira vez que nós pudemos abrir a caixa-preta e mostrar como eles exploram a mecânica quântica para resolver esses problemas," anunciou Geordie Rose, gerente de tecnologia da D-Wave.
O artigo descreve o funcionamento de um bloco do circuito do processador, denominada célula. A célula, uma das 16 que formam o processador quântico, é formada por oito qubits supercondutores de fluxo e 1.500 junções Josephson.
Os pesquisadores tiraram uma série de 'fotografias' do comportamento da célula conforme ela executava um cálculo e mostraram que, usando o alto grau de controle embutido no circuito integrado, os efeitos quânticos podem ser precisamente controlados como desejado por um programador para acelerar os cálculos.
Os dois níveis mais baixos de energia - os elétrons circulando no sentido horário ou anti-horário - podem ser usados para representar os 0s e 1s.
O campo magnético associado com a corrente elétrica que percorre o qubit de fluxo também é quantizado, apontando num ou noutro sentido conforme a direção da corrente. O sentido desse campo magnético pode ser alterado usando um campo magnético externo.
O grande desafio para a construção de um computador quântico é manter os qubits com seus valores, sem que os dados sejam corrompidos por influências externas.
A empresa afirma que, usando uma propriedade chamada termalização quântica (quantum annealing), dentro de um conceito conhecido como computação quântica adiabática, seu processador mantém oito qubits acoplados, todos no menor nível de energia.
Para fazer os cálculos, o processador liga e desliga as interações entre os diversos qubits. Com isto, o estado de baixa energia do sistema em situação de não-interação deve evoluir naturalmente para o estado de baixa energia do sistema em interação - a resposta do cálculo estará codificada nas interações.
Os pesquisadores argumentam que os qubits de fato atingem seu menor estado de energia seguindo a mecânica quântica. A evolução do sistema é consistente com a mecânica quântica, e não com a mecânica clássica.
A empresa anunciou que pretende publicar novos artigos científicos nos próximos meses, dando mais detalhes do funcionamento do seu processador.
Fonte: Nature

domingo, 15 de maio de 2011

Velocidade da luz é alterada por campo eletromagnético

A luz não viaja na mesma velocidade em todas as direções quando ela está sob o efeito de um campo eletromagnético.
raios de luz
© Revista Física (concepção artística de raios de luz)
Embora tenha sido previsto pela teoria, esse efeito contra-intuitivo foi agora demonstrado experimentalmente pela primeira vez por uma equipe da Universidade Paul Sabatier e do Centro Nacional de Pesquisas Científicas (CNRS), da França.
Os pesquisadores mediram, com uma precisão extrema - de cerca de um bilionésimo de metro por segundo - a diferença entre as velocidades de propagação da luz em uma direção e na direção oposta.
A diferença encontrada abre caminho para pesquisas mais aprofundadas com o objetivo de melhorar o modelo que descreve as interações das partículas elementares, o chamado Modelo Padrão da Física.
No vácuo absoluto, a luz viaja a uma velocidade constante de 299.792.458 m/s.
Parece natural que ela se propagasse na mesma velocidade em todas as direções.
No entanto, existem situações em que essa propriedade não é válida, principalmente quando a luz está viajando sob o efeito de um campo eletromagnético.
Esses casos foram inicialmente previstos pela teoria no final dos anos 1970, e deveriam ser observados mesmo no vácuo. No entanto, essas variações muito pequenas são difíceis de confirmar experimentalmente.
O progresso tecnológico tornou possível a detecção desses efeitos em um gás, o nitrogênio no caso do experimento agora realizado.
Para observar a variação da velocidade da luz, os pesquisadores projetaram uma cavidade óptica na qual os feixes de luz passam através de um dispositivo composto por ímãs e eletrodos, o que torna possível a geração de intensos campos elétricos e magnéticos - o campo magnético aplicado é 20.000 vezes maior do que a da Terra.
cavidade óptica usada no experimento 
© CNRS (cavidade óptica usada no experimento)
Uma cavidade óptica é um dispositivo no qual determinados raios de luz permanecem confinados por meio de espelhos, nos quais esses raios ficam refletindo continuamente.
Dessa forma, os pesquisadores conseguiram demonstrar experimentalmente que a luz não viaja na mesma velocidade em direções opostas em um gás sobre o qual está atuando um campo eletromagnético.
A diferença medida na velocidade da luz é de cerca de um bilionésimo de metro por segundo (m/s), ou seja, 10-9 m/s, o que equivale a 10-18 vezes a velocidade da luz.
Os resultados abrem caminho para diversas novas pesquisas. Permitirão um refinamento das medições da anisotropia da propagação da luz. Aumentando a sensibilidade do dispositivo de medição poderá ser observado minúsculas falhas da invariância de Lorentz, que é uma simetria fundamental expressa como parte da Teoria da Relatividade.
Isso tornaria possível testar algumas propostas teóricas para melhorar o Modelo Padrão, um modelo que hoje descreve todas as interações entre as partículas elementares.
Essa anisotropia direcional, governada por um campo eletromagnético, pode gerar novas aplicações em óptica, tais como componentes cujo comportamento será diferente dependendo da direção, tudo controlado por um campo magnético externo.
Fonte: Physical Review Letters

sábado, 7 de maio de 2011

A misteriosa supercondutividade

A supercondutividade é um dos poucos fenômenos naturais a reunir virtualmente todas as facetas do desenvolvimento científico e tecnológico.
 supercondutor repelindo as linhas de força de um campo magnético
© LPS (supercondutor repelindo um campo magnético)
Na descrição do fenômeno mede-se a resistência elétrica do material em função da temperatura. Quando esta decresce, o valor da resistência varia suavemente até que, em determinada temperatura, ele cai abruptamente a zero. A temperatura em que isso ocorre é conhecida como temperatura crítica (Tc) do material observado. Diz-se então que o material é supercondutor abaixo dessa temperatura.
Mas, no alvorecer de seu primeiro centenário, a supercondutividade permanece envolta em mistério e ainda não permitiu que a humanidade a utilizasse em muitas das suas tão sonhadas e plausíveis aplicações tecnológicas.
Como é usual acontecer com as grandes descobertas, a da supercondutividade resultou de um conjunto de eventos fortuitos conduzidos e observados por cientistas. No início do século passado, o físico holandês Heike Kamerlingh Onnes (1853-1926) dedicava-se à liquefação do hélio para obter temperaturas próximas do zero absoluto – ou zero Kelvin (0 K). Conseguiu a façanha em 1908, obtendo a temperatura de 4,2 K, o que lhe valeu o Prêmio Nobel de Física de 1913.
A motivação para a obtenção de temperaturas tão baixas era, principalmente, o estudo da resistência elétrica dos metais em função da temperatura. De acordo com o conhecimento da época, para levar adiante esses estudos seria preciso usar amostras metálicas de alta pureza.
O físico holandês Gilles Holst (1886-1968), um dos colaboradores de Onnes, teve a ideia de usar mercúrio em vez de um metal. Por se tratar de um líquido, a purificação do mercúrio era uma tarefa banal. Então, no dia 8 de abril de 1911, eles colocaram um tubo capilar cheio de mercúrio no hélio líquido e mediram a resistência elétrica do material em função da temperatura: a 4,2 K, a resistência era tão pequena que não podia ser medida. Estava descoberta a ‘supracondução’, primeiro termo usado por Onnes para descrever o fenômeno.
Ironicamente, tudo poderia ter sido muito mais simples. Bastaria ter colocado um pedaço qualquer de chumbo, impuro que fosse, e observariam o fenômeno em temperatura por volta de 7,2 K. Mas apenas em 1913 eles fizeram o experimento com esse metal.
Além disso, havia outro incômodo na supercondutividade: o estado de resistência zero desaparecia quando a amostra era colocada nas proximidades de um campo magnético, por mais fraco que fosse esse campo.
Sabe-se hoje que a explicação para isso é que vários supercondutores descobertos naquela época eram metais elementares, muitos deles supercondutores do tipo I. Nesses metais, o estado supercondutor existe apenas em uma fina camada superficial e é facilmente destruído por campos magnéticos acima de determinado valor que penetram no material.
Passaram-se duas décadas até que a existência de supercondutividade em ligas metálicas fosse reconhecida. Era o nascimento dos supercondutores do tipo II, com temperaturas críticas maiores e estado supercondutor distribuído em grande volume da amostra, de modo que o material resistia mais à presença de campos magnéticos.
Essa interação entre estado supercondutor e campo magnético foi bem investigada pelos físicos alemães Walther Meissner (1882-1974) e Robert Ochsenfeld (1901-1993), que, em 1933, descobriram o efeito Meissner, uma das principais assinaturas do estado supercondutor. O fenômeno está associado à capacidade que um material supercondutor tem de repelir as linhas de força de um campo magnético.
Depois da descoberta do efeito Meissner, o grande salto na pesquisa sobre supercondutividade ocorreu no final dos anos 1950, quando os físicos estadunidenses John Bardeen (1908-1991), Leon Cooper (1930-) e Robert Schrieffer (1931-) apresentaram a hoje famosa teoria BCS, que lhes valeu o Prêmio Nobel de Física de 1972. Um componente importante dessa teoria é a formação de pares de elétrons, os famosos pares de Cooper, responsáveis pela condução elétrica nos supercondutores.
Se a comunidade científica recebeu com grande entusiasmo a teoria BCS, não havia como esconder a frustração pela falta de aplicações tecnológicas da supercondutividade. Mas essa conquista ocorreu poucos anos depois, com a fabricação de fios supercondutores de Nb3Sn, NbZr e NbTi, que ainda hoje são usados nos equipamentos de ressonância magnética de laboratórios de pesquisa e de hospitais e nos eletroímãs do Grande Colisor de Hádrons (LHC), por exemplo.
Ao mesmo tempo em que os pesquisadores experimentais avançavam na elaboração de supercondutores do tipo II, por volta de 1962, o físico teórico britânico Brian Josephson (1940-) previu a existência do efeito túnel em materiais supercondutores.
Esse fenômeno resultou na invenção do Squid (dispositivo supercondutor de interferência quântica). Trata-se de um sensor que permite realizar medidas magnéticas extremamente sensíveis e é usado atualmente em inúmeros equipamentos de pesquisa e em inovadores aparelhos clínicos de magnetoencefalograma, magnetocardiograma e ressonância magnética funcional.
Nos anos 1970, o avanço científico e tecnológico associado à supercondutividade era tão lento que muita gente foi se dedicar a outras áreas de pesquisa. A história mudou em meados de 1986, com a descoberta das cerâmicas supercondutoras, algumas das quais apresentando supercondutividade abaixo de 90 K.
Encontrar um material supercondutor com temperatura crítica próxima da temperatura do nitrogênio líquido (77 K) foi um grande passo em direção ao sonho supremo da supercondutividade em temperatura ambiente (entre 294 e 296 K). Mas ninguém sabe se chegaremos lá. Na verdade, ainda estamos muito longe: o recorde atual, 138 K, pertence a um óxido à base de mercúrio, bário, cálcio e cobre.
Enquanto as cerâmicas supercondutoras não satisfazem completamente o sonho dos engenheiros, os pesquisadores da área de ciência dos materiais avançam na descoberta de compostos supercondutores, sendo o diboreto de magnésio (MgB2) o mais novo da família. Comparado com as cerâmicas, ele é medíocre em termos de temperatura crítica (39 K), mas seu estado supercondutor resiste a altíssimos campos magnéticos, o que o credencia para a indústria elétrica de alta potência.
Fonte: Ciência Hoje

terça-feira, 26 de abril de 2011

Descoberta a mais pesada partícula de antimatéria

Em 1911, o cientista neozelandês Ernest Rutherford (1871-1937) utilizou núcleos de átomos de hélio-4, denominadas de partículas alfa, para demonstrar que os átomos têm sua carga positiva concentrada em um pequeno núcleo.
colisão gerando hélio-4 e anti-hélio
© STAR (colisão gerando hélio-4 e anti-hélio)
Após cem anos da criação do modelo atômico de Rutherford, um grupo internacional de cientistas, com participação brasileira, descreve pela primeira vez a observação e medição de antipartículas de núcleos de hélio-4. Trata-se da antimatéria mais pesada já produzida e medida em um laboratório.
Esta equipe publicou em 2010 na revista Science,  a primeira evidência experimental de um anti-hipernúcleo, onde as antipartículas foram submetidas à coalescência, agregando dois antinêutrons e um antipróton, formando um antitrítio (núcleo de antimatéria do átomo de trítio, o isótopo do hidrogênio que possui dois nêutrons e um próton).
No trabalho atual, os pesquisadores conseguiram produzir um anti-hélio, com dois antiprótons e dois antinêutrons.
anti-hélio
© BNL (anti-hélio)
No experimento STAR foi realizado no RHIC (Colisor Relativístico de Íons Pesados), nos Estados Unidos, onde foram efetuadas colisões de núcleos de átomos de ouro em velocidade próxima à da luz, em temperatura altíssima, criando uma densidade de energia semelhante à que existiu alguns microssegundos após o Big Bang. Tanto no laboratório como no início do Universo, as colisões resultam na formação de uma quantidade equivalente de matéria e antimatéria.
"Teoricamente, acreditamos que o Big Bang surgiu de uma grande concentração de energia em uma singularidade e, a partir de modelos, concluímos que esse processo deve ter produzido muita antimatéria. No entanto, quando olhamos o Universo quase não encontramos a antimatéria. O experimento poderá ajudar a entender o que aconteceu nesses instantes iniciais", disse Alexandre Suaide, do IFUSP (Instituto de Física da Universidade de São Paulo), um dos participantes brasileiros do estudo.
"Produzimos no experimento um número de colisões de núcleos de ouro da ordem de 1 bilhão. Cada uma delas produz milhares de partículas diferentes. De todos esses trilhões de partículas, conseguimos encontrar 18 núcleos de anti-hélio. A dificuldade envolvida na tarefa explica por que as partículas antialfa jamais haviam sido observadas, embora a partícula alfa já tenha sido identificada há um século", disse.
A detecção tem consequências importantes para a futura observação de antimatéria no Universo. O estudo sobre as antipartículas é fundamental para o avanço do conhecimento em aspectos fundamentais da Física Nuclear, da Astrofísica e da Cosmologia.
Fonte: Agência Fapesp e Nature

Energia solar sem células fotovoltaicas

Um dramático e surpreendente efeito magnético da luz pode gerar energia solar sem as tradicionais células solares fotovoltaicas.
ilustração do magnetismo da luz
© Science (ilustração do magnetismo da luz)
O cientista Stephen Rand, da Universidade de Michigan, nos Estados Unidos, e seus colegas descobriram que, na intensidade certa, quando a luz viaja através de um material que não conduz eletricidade, o campo de luz pode gerar efeitos magnéticos que são 100 milhões de vezes mais fortes do que o anteriormente esperado.
Nestas circunstâncias, os efeitos magnéticos da luz apresentam uma intensidade equivalente à de um forte efeito elétrico.
Isso pode permitir a construção de um novo tipo de célula solar sem semicondutores e sem absorção para produzir a separação de cargas. Nas células solares, a luz entra em um material, é absorvida e gera calor.
"Aqui, esperamos ter uma carga térmica muito baixa. Em vez de a luz ser absorvida, a energia é armazenada como um momento magnético. A magnetização intensa pode ser induzida por luz intensa e, em seguida, é possível fornecer uma fonte de energia capacitiva," explica o pesquisador.
O que torna isto possível é uma espécie de "retificação óptica" que nunca havia sido detectada, afirma William Fisher, coautor da pesquisa.
Na retificação óptica tradicional, o campo elétrico da luz provoca uma separação de cargas, distanciando as cargas positivas das negativas no interior de um material. Isto cria uma tensão elétrica, semelhante à de uma bateria.
Este efeito elétrico só havia sido detectado em materiais cristalinos, cuja estrutura atômica apresenta uma certa simetria.
Rand e Fisher descobriram que, sob certas circunstâncias, o campo magnético da luz também pode criar retificação óptica em outros tipos de material.
"Acontece que o campo magnético começa desviando os elétrons, forçando-os a assumir uma rota em formato de C, e fazendo-os avançar aos poucos. Esse movimento das cargas em formato de C gera tanto um dipolo elétrico quanto um dipolo magnético. Se pudermos configurar vários desses elementos em linha ao longo de uma fibra poderemos gerar uma tensão enorme; extraindo essa tensão, podemos usar a fibra como uma fonte de energia," disse Fisher.
Para isso, a luz deve ser dirigida através de um material que não conduz eletricidade, como o vidro. E ela deve ser focalizada a uma intensidade de 10 milhões de watts por centímetro quadrado.
A luz do Sol sozinha não é tão intensa, mas o cientista afirma que seu grupo está procurando materiais que trabalhem com intensidades mais baixas. Por outro lado, concentradores solares de alta eficiência já conseguem aumentar a concentração da luz em quase 2.000 vezes.
Num trabalho recente, os pesquisadores mostraram que uma luz incoerente como a luz solar é teoricamente quase tão eficiente em produzir a separação de cargas quanto a luz de um laser.
Esta nova técnica poderia tornar a energia solar mais barata. Eles preveem que, com materiais melhores, será possível alcançar uma eficiência de 10 por cento na conversão da energia solar em energia utilizável. Isso é praticamente equivalente à eficiência das células solares vendidas no comércio hoje, embora já existam células solares muito mais eficientes em escala de laboratório.
Fonte: Journal of Applied Physics

segunda-feira, 25 de abril de 2011

O efeito do gás parcialmente intransponível

Físicos do MIT (Massaschusetts Institute of Technology), Estados Unidos, observaram que duas nuvens de gases frios se chocam como se fossem sólidos.
estrela de nêutrons
© NASA (estrela de nêutrons)
Os pesquisadores tinham a intenção de usar átomos de lítio gasoso como modelo para elétrons em sistemas de fortes interações, isto é, sistemas em que partículas atômicas são propensas a colidirem umas com as outras. Eles estavam tentando estudar as circunstâncias em que os elétrons e quarks formam um determinado estado da matéria.
Em vez disso, o que eles descobriram foi um fenômeno surpreendente que poderia ajudar a explicar o comportamento dos sistemas como estrelas de nêutrons, supercondutores de alta temperatura ou a a sopa de quarks e glúons que existiu logo após o Big Bang.
Para conseguir o efeito do gás parcialmente intransponível, a equipe do MIT resfriou os isótopos de lítio até cerca de 50 bilionésimos de Kelvin. Depois de separar o gás em duas nuvens, com um campo magnético, a equipe usou então uma armadilha de luz laser para empurrá-los um em direção ao outro. No entanto, ao invés de se difundir, os gases se colidiram como sólidos.
As nuvens de gás não são exatamente impenetráveis. Elas acabaram por se dispersar uma na outra, mas apenas depois de que um longo segundo em escala atômica.
Limitando o gás de lítio a duas dimensões, os pesquisadores poderiam simular os elétrons em semicondutores de alta temperatura, uma tecnologia importante para a criação de linhas de transporte de eletricidade de longo alcance, eficientes o suficiente para apoiar uma economia de energia renováveis.
A descoberta também pode ser usada para simular outros sistemas de forte interação encontrados em escalas muito maiores no cosmos, como os de estrelas de nêutrons, que são muito menores em tamanho do que o nosso Sol, mas com muito mais massa.
Fonte: Massaschusetts Institute of Technology

quinta-feira, 21 de abril de 2011

Transístor funciona com um único elétron

Uma equipe internacional de pesquisadores, com participação de brasileiros, criou um transístor de um único elétron.
esquema do transístor de elétron único
© U. Pittsburgh (esquema do transístor de elétron único)
A pesquisa está em uma área de fronteira entre a eletrônica tradicional e a computação quântica,  chamada atomotrônica.
O transístor de elétron único tanto poderia ser útil para a criação de memórias ultradensas, levando a miniaturização a um novo patamar, quanto funcionar como um qubit para um computador quântico.
Em 2006, a equipe do professor Jeremy Levy, da Universidade de Pittsburgh, criou pontos quânticos de germânio que, colocados sobre um substrato de silício, com precisão de 2 nanômetros, eram capazes de aprisionar elétrons individuais.
Em 2009, o mesmo grupo criou uma plataforma universal para fabricar componentes eletrônicos com dimensões próximas à escala atômica.
Agora eles criaram uma "ilha de elétrons" que mede apenas 1,5 nanômetro de diâmetro. A ilha se torna o elemento central do transístor de elétron único quando recebe um ou dois elétrons.
Os elétrons são levados até lá por meio de nanofios, que funcionam como os eletrodos do transístor. O número de elétrons aprisionados, que pode ser apenas zero, um ou dois, altera as propriedades de condução do dispositivo.
Os elétrons tunelam de um fio para o outro através da ilha. A tensão elétrica no terceiro fio controla as propriedades condutoras do local, fazendo com que o elétron possa ou não tunelar, funcionamento como transístor.
A principal vantagem do transístor de elétron único é a sua extrema sensibilidade a uma carga elétrica, o que o torna potencialmente um sensor elétrico, com um nível inédito de precisão.
O componente é ferroelétrico, o que significa que ele pode funcionar como uma memória de estado sólido que não perde os dados na ausência de eletricidade. A ferroeletricidade também torna o transístor sensível a pressões em escala nanométrica, o que o torna potencialmente útil como um sensor de força.
Fonte: Nature

quarta-feira, 20 de abril de 2011

O gato de Schrödinger é teletransportado

A equipe do Dr. Noriyuki Lee e seus colegas da Universidade de Tóquio, no Japão, descobriram uma forma de teletransportar o gato de Schrödinger.
teletransporte quântico
© Science (teletransporte quântico)
A informação no teletransporte quântico, através do spin de uma partícula ou a polarização de um fóton, é transferida de um local para o outro, sem que ocorra o deslocamento por um meio físico. Não há transferência de energia nem de matéria.
O teletransporte quântico já foi demonstrado com átomos e até mesmo com moléculas de DNA.
O famoso gato vivo ou morto foi idealizado pelo físico Erwin Schrödinger para explicar o fenômeno quântico da superposição, em que uma partícula fica em dois estados simultaneamente, somente se colapsando quando se tenta medir esse estado.
A explicação foi realizada em termos de objetos em escala macroscópica: um gato fechado em uma caixa contendo um frasco de veneno. O frasco estará aberto se uma partícula quântica estiver em um estado, e fechado se a partícula estiver em outro estado.
Em termos quânticos, o gato estará vivo e morto simultaneamente. Somente quando alguém abrir a caixa - o equivalente a medir o estado quântico da partícula - a partícula colapsará e conheceremos o real estado do gato, vivo ou morto.
Os pesquisadores descobriram uma forma de teletransportar um quanta de luz, ou um fóton, que está em um estado de superposição, ou seja, no chamado estado do gato de Schrödinger.
A partícula quântica superposta é destruída em um local e integralmente reconstruída em outro local, sem perder nenhuma de suas sensíveis propriedades quânticas.
Os pesquisadores começaram construindo um estado de entrelaçamento, no qual duas partículas compartilham propriedades qualquer que seja a distância entre elas.
Em outro ponto, eles construíram o gato de Schrödinger, a partícula em superposição, que deveria ser teletransportada.
O processo envolve uma sequência de passos que combinam múltiplos fenômenos quânticos, incluindo compressão e subtração de fótons, entrelaçamento e detecção homódina.
Apesar da complexidade do processo e da fragilidade dos estados quânticos envolvidos, os cientistas conseguiram comprovar o teletransporte por intermédio da Função de Wigner, que descreve o a propriedade quântica de um pulso de luz.
Essa função apresenta valores negativos que funcionam como uma medição da qualidade do teletransporte, chamada fidelidade, que deve ser maior do que 2/3 em uma operação de teletransporte feita com sucesso.
Esse valor de 2/3 é o chamado limite da não-clonagem, que garante que não existe mais nenhuma cópia da partícula quântica na origem - o estado do gato de Schrödinger deve ser destruído em um lugar para que ele reapareça em outro.
O experimento demonstra um mecanismo que poderá ser usado para projetar computadores quânticos que serão capazes de transportar instantaneamente informações com precisão e com absoluta segurança.
Este experimento foi um avanço, porém no momento não há possibilidade de teletransportar até mesmo uma bactéria!
Fonte: Science