sexta-feira, 29 de janeiro de 2016

Refinada a medida da carga do antihidrogênio

Uma pesquisa internacional com participação brasileira consegue medir com precisão 20 vezes maior que a anterior o limite de uma possível carga elétrica do antihidrogênio, átomo de antimatéria produzida em laboratório.

Alpha

© Revista Física (ilustração do experimento Alpha)

Resultados aproximam a ciência de comprovar experimentalmente conceitos teóricos. Embora prevista há décadas por diversas teorias físicas, a antimatéria não pode ser encontrada na natureza. Criada em laboratório, é de difícil estudo, pois, as partículas se aniquilam ao encontrar paredes ou matéria comum e, além disso, precisam ser resfriadas para uma análise mais cuidadosa. Esforços recentes, no entanto, vêm obtendo resultados cada vez mais promissores para a física contemporânea. Uma equipe internacional de cientistas, depois de conseguir produzir o antihidrogênio, tem aprofundado cada vez mais seu estudo, e conseguiu colocar um limite com precisão ainda maior na carga do antiátomo.

O conceito de antimatéria é do físico britânico Paul Dirac (1902-1984), e as teorias físicas mais consagradas preveem que, na grande explosão que criou o Universo, o Big Bang, matéria e antimatéria surgiram em quantidades praticamente iguais. Uma é equivalente a outra, com carga trocada; isto é, a cada partícula da matéria (por exemplo, o elétron, de carga negativa) corresponde uma partícula de antimatéria (o antielétron ou pósitron), idêntica mas de carga oposta (positiva), onde uma aniquilaria a outra. Uma questão ainda sem resposta é por que vemos tanta matéria no Universo e ainda não conseguimos observar a antimatéria livre.

Quando os cientistas preveem teoricamente uma coisa que não conseguem observar diretamente no mundo natural, o caminho é quase sempre tentar demonstrar esse fato em laboratório. Foi seguindo essa linha que o primeiro antiátomo em baixas velocidades foi criado pelo grupo de pesquisa Athena em 2002, no acelerador de partículas mais poderoso do mundo, no Centro Europeu de Pesquisa Nuclear (CERN), localizado na Suíça. Formado por um antipróton e um pósitron, o antihidrogênio foi um grande passo, mas o desafio continuou: a partícula gerada tinha enorme energia, e aprisioná-la para um estudo mais aprofundado levou anos.

Finalmente, em 2010, a equipe Alpha, que deu sequência ao grupo Athena, anunciou o aprisionamento do antihidrogênio e a comprovação de que o antiátomo tinha a carga muito pequena, próxima de neutra, como previsto pela teoria. Agora, com novo método, a medição da carga do antiátomo ganhou precisão cerca de 20 vezes maior.

O antiátomo se mostrou neutro com uma carga menor que 0,7 parte por bilhão da carga elementar do elétron. A neutralidade dos átomos e moléculas constituidos de matéria já está comprovada com erro menor do que 10−21e para uma variada gama de espécies, incluindo H2, He e SF6.

“Esta é a medida mais precisa jamais feita da nulidade da carga do antihidrogênio,” celebra o físico Cláudio Lenz Cesar, da Universidade Federal do Rio de Janeiro, um dos três brasileiros que participam do projeto composto por um grupo de 50 cientistas. Os outros dois brasileiros são: Daniel de Miranda Silveira e Rodrigo Lage Sacramento.

O novo método para verificar a carga do antiátomo consistiu na aplicação dos chamados potenciais elétricos estocásticos, com a metodologia do caminho aleatório. O método consiste em aplicar pulsos aleatórios sobre antiátomos presos em uma armadilha chamada garrafa magnética, a mesma usada pelo grupo para verificar o comportamento do antihidrogênio em relação à gravidade.

A aplicação de pulsos aleatórios mexeria com uma possível carga dos antiátomos, ora aumentando, ora diminuindo sua energia. Então, os átomos passariam por um estágio de maior energia e escapariam da armadilha. “Se, no final, houvesse alguma carga nos antiátomos, a tendência seria que todos escapassem, deixando a garrafa magnética vazia,” conta Lenz.

Não foi o que aconteceu no experimento. Mesmo após repetidos pulsos e o desligamento do campo magnético da armadilha, o antihidrogênio não escapou da garrafa, o que sugere que não teria ganho energia. Sua carga, portanto, aproxima-se de zero, assim como a do hidrogênio.

Os resultados animadores já deixaram a equipe do Alpha na expectativa das próximas descobertas. Segundo Lenz, o próximo passo da pesquisa é lançar um feixe de laser ultrapreciso sobre o antihidrogênio, o que permitiria observá-lo ainda melhor e medir  seus níveis quânticos de energia com uma precisão na ordem de partes por trilhão. “Este é o nosso objetivo desde que começamos a pesquisa, há 20 anos, e está prestes a se concretizar,” anuncia o pesquisador.

Este trabalho foi descrito na revista Nature.

Fonte: Ciência Hoje

segunda-feira, 18 de janeiro de 2016

Um demônio de Maxwell autônomo

Em 1867, o físico escocês James Clerk Maxwell desafiou a segunda lei da termodinâmica, segundo a qual a entropia em um sistema fechado sempre deve aumentar.

demônio de Maxwell autônomo

© J. Koski (demônio de Maxwell autônomo)

Na ilustração acima, quando o demônio vê o elétron entrar na ilha (1), ele o aprisiona com uma carga positiva (2). Quando o elétron deixa a ilha (3), o demônio solta uma carga negativa (4).

Em seu experimento mental, Maxwell idealizou um recipiente fechado com gás, dividido em duas partes por uma parede interna, na qual existe uma pequena porta.

Abrindo e fechando a porta, uma criatura hipotética, que passou à história com o nome de "Demônio de Maxwell", poderia ordenar as partículas do gás, passando a lentas e frias para um lado e dirigindo as rápidas e quentes para o outro lado da parede, criando assim, uma diferença de temperatura que violaria as leis da termodinâmica.

No plano teórico, este experimento mental tem sido objeto de análises, interpretações e controvérsias nesses últimos 150 anos, mas testar experimentalmente a ideia vinha sendo impossível até há pouco tempo.

Então, em 2007, uma equipe escocesa finalmente construiu uma nanomáquina equivalente ao Demônio de Maxwell. Mas a controvérsia continuou, porque este experimento ainda dependia de um atuador externo, deixando a entropia total seguir seu caminho previsto e a segunda lei da termodinâmica intacta.

Agora, Jonne Koski da Universidade de Aalto, na Finlândia, através da pesquisa que faz parte de sua tese de doutorado, conseguiu construir um demônio de Maxwell autônomo, capaz de executar o experimento idealizado por Maxwell por conta própria e sem qualquer ajuda externa, permitindo analisar alterações microscópicas envolvendo a termodinâmica.

O sistema é constituído por dois transistores que separam os elétrons em termos de suas energias, efetivamente retirando energia de um dos transistores, que então se resfria, num processo adiabático.

"O sistema que construímos é um transístor de elétron único formado por uma pequena ilha metálica ligada a dois fios por junções túnel feitas de materiais supercondutores. O demônio ligado ao sistema também é um transístor de elétron único que monitora o movimento dos elétrons no sistema. Quando um elétron tunela para a ilha, o demônio o aprisiona com uma carga positiva. Inversamente, quando um elétron deixa a ilha, o demônio o repele com uma carga negativa e o força a se mover morro acima, contrariamente ao seu potencial, o que reduz a temperatura do sistema," explicou o professor Jukka Pekola.

O que torna este demônio autônomo é que ele executa a operação de medição e atuação sem qualquer comando ou energia vindos do exterior. As alterações de temperatura são indicativas da correlação entre o demônio e o sistema, ou, em termos simples, de quanto o demônio "sabe" sobre o sistema.

O sistema é operado em temperaturas extremamente baixas, e é tão bem isolado que é possível registrar mudanças extremamente pequenas de temperatura.

Um demônio eletrônico também permite um número muito grande de repetições da operação de medição e retorno em um tempo muito curto, enquanto que aqueles que, no resto do mundo, usnado moléculas para construir seus demônios teve de lidar com não mais do que algumas centenas de repetições.

O demônio de Maxwell poderá ter aplicações no resfriamento de chips e qubits e também na computação reversível, um conceito que prevê uma computação na qual o processo de cálculo pode ser revertido sem perda de energia.

"Como trabalhamos com circuitos supercondutores, também é possível para nós criar qubits de computadores quânticos. Como próximo passo, gostaríamos de examinar esses mesmos fenômenos em nível quântico," revela o professor Pekola.

Os resultados da pesquisa foram publicados na revista Physical Review Letters.

Fonte: Aalto University

quinta-feira, 14 de janeiro de 2016

Buraco negro de plasma de quarks e glúons

Por meio de simulação computacional, pesquisadores do Instituto de Física da Universidade de São Paulo, no Brasil, e do Departamento de Física da Columbia University, nos Estados Unidos, determinaram pela primeira vez, de forma quantitativa, como a carga bariônica se difunde através do plasma de quarks e glúons.

colisão de núcleos de ouro

© Brookhaven National Laboratory (colisão de núcleos de ouro)

A imagem acima mostra o evento de uma única colisão de íons de ouro, acelerados até a energia de 200 GeV (giga elétron-volts), medida pelo rastreador de vértice de silício do detector PHENIX, do Relativistic Heavy Ion Collider (RHIC).

A carga bariônica é definida pela diferença entre o número de quarks e antiquarks em um dado meio. Supõe-se que o plasma de quarks e glúons tenha predominado no Universo durante uma pequeníssima fração de segundo após o Big Bang, muito antes que o processo de expansão e consequente resfriamento do cosmo reconfigurasse várias vezes seu conteúdo material e energético, até chegar ao estágio atual. Fazendo o caminho inverso, é possível produzir o plasma de quarks e glúons a partir da matéria ordinária, aquecendo-a a temperaturas milhares de vezes superiores à mais alta temperatura registrada no Sol.

Porém, no ambiente terrestre, o patamar de energia necessário para isso só é alcançado, e por um ínfimo lapso de tempo, nas colisões relativísticas [próximas da velocidade da luz] de núcleos pesados, produzidas nos dois maiores colisores de partículas da atualidade, o Large Hadron Collider (LHC), na Europa, e o Relativistic Heavy Ion Collider (RHIC), nos Estados Unidos.

“Simulando em computador as propriedades de 250 mil buracos negros pentadimensionais, calculamos como a carga bariônica se difunde através desse plasma quando o sistema passa a conter mais matéria do que antimatéria”, disse Noronha. “Para isso, utilizamos um modelo teórico baseado na chamada ‘dualidade holográfica’, que estabelece uma surpreendente equivalência entre certas teorias quânticas definidas no espaço-tempo usual, de quatro dimensões estendidas, e a física de supercordas em um espaço-tempo curvo, de cinco dimensões estendidas.”

A “dualidade holográfica”, descoberta pelo físico argentino Juan Maldacena em 1997, é considerada uma das maiores revoluções da física teórica em anos recentes, porque possibilita que alguns fenômenos quânticos de difícil entendimento no espaço-tempo usual, de quatro dimensões, sejam estudados como hologramas de fenômenos gravitacionais mais simples ocorrendo em um espaço de cinco dimensões.

Esses fenômenos pentadimensionais são descritos pela teoria de supercordas, que é, atualmente, a principal candidata à teoria da gravitação quântica, superando o problema até agora insolúvel de compatibilizar a teoria quântica com a teoria da relatividade geral, os dois pilares da física contemporânea. Os partidários da teoria de supercordas consideram que ela poderá desempenhar um papel fundamental no entendimento de configurações em que a matéria-energia se encontra comprimida em densidades extremas, como no universo primordial ou no interior de buracos negros.

“A teoria de supercordas preconiza que as partículas fundamentais que identificamos no Universo correspondam, na verdade, a diferentes modos de vibração de minúsculas cordas existindo em um espaço-tempo de 10 dimensões. Como o Universo a que temos acesso por meio dos instrumentos de observação e dos experimentos se apresenta como um espaço-tempo com quatro dimensões estendidas [as três direções espaciais e o tempo], conjectura-se que as seis dimensões extras previstas pela teoria de supercordas devam estar compactadas em objetos extremamente reduzidos, que não podemos sondar diretamente com a tecnologia atual”, explicou o pesquisador.

Em princípio, haveria um grande número de compactações possíveis para as dimensões extras, a cada uma correspondendo um universo diferente. O Universo conhecido seria apenas um deles.

“O que Maldacena descobriu foi uma importante relação matemática entre certas teorias quânticas definidas no espaço-tempo plano usual, de quatro dimensões estendidas, e supercordas existindo em um contexto formado pela composição de um espaço-tempo curvo de cinco dimensões estendidas [chamado de ‘Anti-de-Sitter’ ou AdS] e uma hiperesfera com cinco dimensões compactadas. A relação matemática descoberta por Maldacena recebe o nome de dualidade holográfica”, informou Noronha.

Uma das principais aplicações da “dualidade holográfica” é utilizar as propriedades físicas de buracos negros definidos em um espaço AdS pentadimensional para calcular, de forma aproximada, as características do plasma de quarks e glúons, produzido experimentalmente nos dois grandes colisores.

“A expressão ‘plasma de quarks e glúons’ precisa ser melhor explicada”, ponderou o pesquisador. “A palavra ‘plasma’ designa um gás de íons, isto é, de partículas eletricamente carregadas. Ao passo que os glúons são eletricamente neutros e os quarks possuem carga elétrica fracionária (o que os distingue de todas as demais partículas, que apresentam carga elétrica inteira ou nula).

Outro aspecto bastante peculiar dos quarks e glúons é que, sob as condições habitualmente observadas na natureza, essas partículas fundamentais se encontram confinadas no interior de partículas compostas, chamadas de hádrons, como os prótons e os nêutrons, que compõem os núcleos atômicos. Quando núcleos atômicos pesados, compostos por vários prótons e nêutrons, são colididos a altíssimas energias, como ocorre no LHC e no RHIC, os quarks e os glúons são temporariamente liberados, formando o meio que, por comodidade, chamamos de plasma de quarks e glúons.”

“Esse ‘plasma’ corresponde, de fato, a gotículas de volumes minúsculos, com raios da ordem de 10-15 metros, e temperaturas altíssimas, em torno de 250 mil vezes a temperatura do centro do Sol, estimada em 107 Kelvin. De fato, essas gotículas, formadas nos grandes colisores, constituem o fluido mais perfeito, de menor tamanho e mais quente já produzido pelo ser humano. Duram apenas uma diminuta fração de segundo, antes que o resfriamento faça com que os quarks e glúons sejam novamente confinados em hádrons. Esse meio corresponderia à condição do Universo poucos instantes após o Big Bang”, descreveu Noronha.

Neste trabalho os pesquisadores utilizaram a dualidade holográfica e a simulação computacional para investigar, pela primeira vez na literatura, como a carga bariônica se difunde através do plasma de quarks e glúons. E calcularam também a condutividade associada a essa carga, além de outras grandezas observáveis, de grande importância para a caracterização física desse estado da matéria.

Um artigo descrevendo o estudo intitulado “Suppression of Baryon Diffussion and Transport in a Baryon Rich Strongly Coupled Quark-Gluon Plasma”, assinado por Rômulo Rougemont e Jorge Noronha, da USP, e por Jacquelyn Noronha-Hostler, de Columbia, foi publicado no periódico Physical Review Letters.

Fonte: FAPESP (Agência)

terça-feira, 5 de janeiro de 2016

Desordem irreversível no mundo dos átomos

Físicos brasileiros e europeus demonstraram, pela primeira vez, que um minúsculo núcleo atômico também sofre um fenômeno comum, bem conhecido dos seres humanos: os efeitos irreversíveis da passagem do tempo.

entropia da quebra de um copo

© Revista Física (entropia da quebra de um copo)

Usando equipamentos de um laboratório no Centro Brasileiro de Pesquisas Físicas (CBPF), no Rio de Janeiro, eles registraram um aumento irreversível no grau de desordem no interior de um átomo do elemento químico carbono.

Em física, o grau de desordem é medido por uma grandeza chamada entropia, que quase sempre é crescente nos fenômenos do mundo macroscópico, no máximo ela se mantém estável, mas nunca diminui em um sistema dito isolado. Uma das consequências de a entropia sempre aumentar é que, quanto maior a desordem, mais difícil se torna reverter um fenômeno perfeitamente. “Não é possível desfazer a mistura entre o café e o leite depois de misturá-los, por exemplo”, diz o físico Roberto Serra, pesquisador da Universidade Federal do ABC (UFABC) e integrante da equipe que fez os experimentos no CBPF.

Isso acontece porque o café e o leite, e tudo o mais no mundo macroscópico, são feitos de quantidades absurdamente elevadas de átomos se movimentando das maneiras as mais variadas possíveis, a maioria delas aleatórias e incontroláveis. Ante número tão elevado de combinações possíveis, até existe a probabilidade de os átomos de café se separarem dos de leite, mas ela é próxima a zero. É também por isso que não se veem os pedaços de uma taça de vinho que se parte voltarem a se unir espontaneamente.

No dia a dia, os seres humanos associam a irreversibilidade desses fenômenos à passagem do tempo e às noções de passado e futuro. Em condições normais, café e leite só existem separados antes de se misturarem e um prato perfeitamente íntegro só existe antes de se quebrar. A noção de irreversibilidade levou o astrônomo e matemático inglês Arthur Eddington a afirmar em 1928, no livro A natureza do mundo físico, que a única seta do tempo conhecida pela física era o aumento da entropia no Universo, determinado pela segunda lei da termodinâmica, a única lei irreversível da física. O conceito de seta do tempo expressa a ideia de que a passagem do tempo ocorre num sentido preferencial: do passado para o futuro.

“Embora a percepção de que o tempo não para e caminha sempre para o futuro seja óbvia em nossa experiência cotidiana, isso não é trivial do ponto de vista da física”, diz Serra. Essa dificuldade ocorre porque as leis que regem a natureza no nível microscópico são simétricas no tempo, ou seja, reversíveis. Isso significa que não haveria diferença entre ir do passado para o futuro e vice-versa.

Muitos físicos pensavam que o aumento da entropia pudesse ser um fenômeno exclusivo do mundo macroscópico porque no século XIX o físico austríaco  Ludwig Boltzmann explicou a segunda lei da termodinâmica pelos movimentos de um número elevado de átomos. Há 60 anos, porém, muitos pesquisadores trabalham para ampliar a teoria de Boltzmann para sistemas feitos de poucos ou mesmo um só átomo. E teorias atuais já estabelecem que uma única partícula deve obedecer à segunda lei da termodinâmica.

A equipe de Serra foi a primeira a medir variações de entropia em um sistema tão pequeno que só podia ser descrito pelas leis da mecânica quântica, que regem o mundo submicroscópico. O físico Tiago Batalhão, aluno de doutorado de Serra na UFABC e atualmente em um estágio de pesquisa na Áustria, realiza desde 2014 experimentos em parceria com Alexandre Souza, Roberto Sarthour e Ivan Oliveira, do CBPF, além de Mauro Paternostro, da Queen’s University, na Irlanda, e Eric Lutz, da Universidade de Erlangen-Nuremberg, na Alemanha.

Os experimentos usam campos eletromagnéticos para manipular os núcleos de átomos de carbono de uma solução de clorofórmio. Os núcleos possuem uma propriedade chamada spin, que funciona como a agulha de uma bússola e aponta para cima ou para baixo, cada sentido com uma energia diferente. Os testes começavam com os spins dos trilhões de núcleos apontando em alguma direção, a maioria para cima e uma fração para baixo, dependendo da temperatura. Em seguida, disparava-se um pulso de ondas de rádio no tubo com clorofórmio. Com duração de um microssegundo, o pulso era curto demais para que cada núcleo interagisse com os vizinhos ou o ambiente. Assim, o pulso afetava cada núcleo isoladamente. “É como se cada um deles estivesse isolado do resto do Universo”, explica Serra.

Formado por ondas cuja amplitude aumentava no tempo, o primeiro pulso perturbava os spins de cada núcleo, que flutuavam rapidamente e mudavam de direção. Após algum tempo, os pesquisadores disparavam um segundo pulso, idêntico ao primeiro em quase tudo, exceto pelo fato de a amplitude de suas ondas decrescer com o tempo. Com o segundo pulso, que representava uma versão do primeiro pulso invertida no tempo, esperava-se fazer o spin de cada núcleo retornar ao estado inicial. De fato, os spins retornaram a um estado bem próximo ao do início. Mas, medidas precisas mostraram que os estados final e inicial não eram iguais. Havia uma discrepância decorrente das transições entre os diferentes estados de energia dos spins, associadas à entropia produzida no processo de aumentar e diminuir a amplitude das ondas.

Vlatko Vedral, físico da Universidade de Oxford, Reino Unido, que faz experimentos semelhantes usando laser, considera o trabalho uma bela demonstração do que a termodinâmica quântica prevê. Ele diz que gostaria de saber se a entropia medida na escala subatômica é produzida por fenômenos descritos pelas leis da física ou se uma parte decorre de algum fenômeno desconhecido atuando sobre  a seta do tempo.

Um artigo foi publicado no periódico Physical Review Letters.

Fonte: FAPESP (Pesquisa)

sexta-feira, 1 de janeiro de 2016

Achado novo bóson mais pesado que o Higgs?

Os dois experimentos que descobriram o Bóson de Higgs em 2012 sentiram uma intrigante possibilidade de uma nova partícula elementar.

pares de fótons produzidos pelo novo bóson

© CERN/CMS (pares de fótons produzidos pelo novo bóson)

Os pares de fótons (verde) produzidos em colisões no Large Hadron Collider (LHC) sugerem a existência de um Higgs com uma massa de 750 GeV (giga elétron-volts).

Ambas as colaborações anunciaram suas observações em 15 de Dezembro, quando publicaram os primeiros resultados significantes.

Os detectores CMS e ATLAs do LHC nos arredores de Geneva, Suíça, observaram em restos de colisões de próton-próton um excesso inesperado de pares de fótons carregando em torno de 750 GeV de energia combinados. Isso poderia ser o sinal da história de uma nova partícula, também um bóson, mas não necessariamente similar ao de Higgs, decaindo em dois fótons de energia equivalente. Seria em torno de quatro vezes mais massivo do que a próxima partícula mais pesada descoberta até então, o quark top, e seis vezes mais massiva que o Higgs.

Em cada caso, a significância estatística era bem pequena. Marumi Kado, do Linear Accelerator Laboratory na Universidade de Paris-Sud, disse que o seu experimento, ATLAS, viu em torno de 40 pares de fótons acima do número esperado do modelo padrão de partículas da física; Jim Olsen da Universidade de Princeton, Nova Jersey, reportou que o CMS viu apenas dez. Nenhum deles teria sequer mencionado o excesso caso os outros experimentos não tivessem visto pistas quase que idênticas.

“É um pouco intrigante. Mas pode ocorrer por coincidência,” diz o representante do ATLAS Dave Charlton, da Universidade de Birmingham, Reino Unido.

Em física de partículas, tropeços estatísticos como esse vem e vão todo o tempo. Se isso acabar sendo uma partícula real, seria “uma mudança completa no jogo”, diz Gian Francesco Fiudice, um teórico do CERN, que não é membro nem do ATLAS nem do CMS. Físicos experimentais passaram décadas validando o modelo padrão, e o Higgs era a última peça faltante no quebra-cabeça. Uma partícula mais pesada abriria um capítulo inteiramente novo no campo. Tiziano Camporesi, um físico no CERN que representa o CMS, diz que não sabe o que concluir com os dados até então. A diferença apareceu conforme a equipe do CMS procurava por uma partícula não relacionada chamada de gráviton.

Maxim Perelstein, um físico teórico do campo de partículas na Universidade de Cornell em Ithaca, Nova Iorque, diz que apesar de que um bóson de 750 GeV não é o que os físicos do LHC tem procurado, teóricos não necessariamente o consideraria como exótico. Por exemplo, poderia ser uma partícula similar a Higgs, apenas mais pesada. “Eu não iria achar isso uma grande surpresa caso venha a ser verdade,” diz Perelstein.

Enquanto isto, buscas por partículas previstas pela supersimetria, extensão favorita dos físicos para o modelo padrão, continuam sem encontrar nada. Para o físico teórico Michael Peskin, do Acelerador Nacional SLAC em Menlo Park, California, a parte mais relevante da discussão trata da falha em encontrar a partícula supersimétrica gluino no alcance de massas possíveis até 1.600 GeV. Isto força a supersimetria perto de um ponto onde muitos físicos talvez desistam dela, diz Peskin.

Em relação aos dois fótons, Camporesi diz que em 2016 o LHC deve estabelecer conclusivamente se os dados foram apenas outro tropeço estatístico ou uma nova partícula. Vai ser a maior prioridade para a próxima rodada de coleta de dados, marcada para começar em março, diz ele. “Se existe um fenômeno natural por trás das flutuações, nós saberemos,” conclui Camporesi.

Charlton concorda: “Nós esperamos dez vezes mais dados no próximo ano, o que deve ajudar a resolver essa questão, mas provavelmente irá criar outras novas!”

Fonte: Nature