terça-feira, 8 de outubro de 2024

Pioneiros da Inteligência Artificial

Os professores John J. Hopfield, da Universidade de Princeton, nos Estados Unidos, e Geoffrey E. Hinton, da Universidade de Toronto, no Canadá, ganharam o Prêmio Nobel de Física deste ano.

© Revista Física (ilustração de uma rede neural)

Os cientistas foram responsáveis pela pesquisa sobre o aprendizado de máquina com redes neurais artificiais. Essas redes são essenciais para o desenvolvimento da inteligência artificial (IA), permitindo que computadores realizem tarefas complexas de maneira similar ao cérebro humano. 

Geoffrey Hinton nasceu em 6 de dezembro de 1947, em Londres, Reino Unido. Ele é pesquisador vinculado à Universidade de Toronto (Canadá) e atuou como consultor no Google. Em 2023, ele pediu demissão da empresa e alertou sobre os riscos da IA para a humanidade. Hinton é um dos pioneiros no campo da inteligência artificial, sendo reconhecido por suas contribuições que revolucionaram o reconhecimento de fala e a classificação de imagens. Ao longo de sua carreira, recebeu prêmios importantes, como o Prêmio Turing, considerado o "Nobel da Computação". 

John Hopfield nasceu em 15 de julho de 1933, em Chicago, EUA. Ele é professor emérito da Universidade de Princeton, em Nova Jersey (EUA), e é amplamente conhecido por suas contribuições à neurobiologia e à física teórica. Hopfield desenvolveu um modelo de rede neural que simula o funcionamento do cérebro de seres humanos, permitindo o armazenamento e processamento de informações. Sua pesquisa lhe rendeu prêmios como a Medalha Dirac e o Prêmio Albert Einstein. 

A Academia Sueca de Ciências, em Estocolmo, afirmou que Hopfield e Hinton levaram o prêmio por suas contribuições fundamentais para a criação de métodos que são a base das chamadas redes neurais artificiais usadas hoje. Hopfield desenvolveu uma estrutura capaz de armazenar e reconstruir informações (as redes de Hopfield), enquanto Hinton inventou um sistema que identifica padrões em dados de forma autônoma, dois estudos essenciais para o avanço da IA. 

Nos anos 80, o norte-americano, que antes se dedicava a problemas teóricos de biologia molecular, voltou sua atenção para o estudo do cérebro humano e propôs a rede que consegue armazenar padrões e recuperá-los quando apresentados de forma incompleta. Dessa forma, ele criou o que chamamos de "memória associativa", onde uma rede neural artificial, de forma semelhante aos neurônios do cérebro humano, pode reconstruir dados mesmo que estejam parcialmente apagados ou distorcidos. Hinton, por sua vez, ampliou essas ideias, aplicando conceitos da física estatística criando uma tecnologia que consegue identificar padrões, não por instruções diretas, mas após ser alimentada com exemplos. Na prática, isso quer dizer que o sistema pode reconhecer novos elementos com base nas características que aprendeu em dados anteriores, podendo resolver problemas complexos que seriam impossíveis de serem geridos apenas por instruções passo a passo. A identificação de objetos em uma imagem é um exemplo disso, algo que requer uma compreensão mais profunda e dinâmica. 

A física estatística descreve sistemas que são compostos de muitos elementos semelhantes, como moléculas em um gás. É difícil, ou impossível, rastrear todas as moléculas separadas no gás, mas é possível considerá-las coletivamente para determinar as propriedades abrangentes do gás, como pressão ou temperatura. Existem muitas maneiras potenciais para as moléculas de gás se espalharem por seu volume em velocidades individuais e ainda resultarem nas mesmas propriedades coletivas. Os estados em que os componentes individuais podem existir em conjunto podem ser analisados usando física estatística, e a probabilidade de eles ocorrerem calculada. Alguns estados são mais prováveis do que outros; isso depende da quantidade de energia disponível, que é descrita em uma equação do físico do século XIX Ludwig Boltzmann. A rede de Hinton utilizou essa equação, e o método foi publicado em 1985 sob o nome marcante de máquina de Boltzmann. 

A máquina de Boltzmann é comumente usada com dois tipos diferentes de nós. As informações são alimentadas para um grupo, que são chamados de nós visíveis. Os outros nós formam uma camada oculta. Os valores e conexões dos nós ocultos também contribuem para a energia da rede como um todo. A máquina é executada aplicando uma regra para atualizar os valores dos nós um de cada vez. Eventualmente, a máquina entrará em um estado no qual o padrão dos nós pode mudar, mas as propriedades da rede como um todo permanecem as mesmas. Cada padrão possível terá então uma probabilidade específica que é determinada pela energia da rede de acordo com a equação de Boltzmann. Quando a máquina para, ela cria um novo padrão, o que torna a máquina de Boltzmann um exemplo inicial de um modelo generativo. A máquina de Boltzmann pode aprender, não a partir de instruções, mas a partir de exemplos fornecidos. Ela é treinada atualizando os valores nas conexões da rede para que os padrões de exemplo, que foram alimentados aos nós visíveis quando ela foi treinada, tenham a maior probabilidade possível de ocorrer quando a máquina for executada. Se o mesmo padrão for repetido várias vezes durante esse treinamento, a probabilidade desse padrão será ainda maior. O treinamento também afeta a probabilidade de produzir novos padrões que se assemelham aos exemplos nos quais a máquina foi treinada.

Uma máquina de Boltzmann treinada pode reconhecer características familiares em informações que não viu anteriormente. Em sua forma original, a máquina de Boltzmann é bastante ineficiente e leva muito tempo para encontrar soluções. As coisas se tornam mais interessantes quando ela é desenvolvida de várias maneiras, que Hinton continuou explorarando. Versões posteriores foram reduzidas, pois as conexões entre algumas das unidades foram removidas. Acontece que isso pode tornar a máquina mais eficiente. Durante a década de 1990, muitos pesquisadores perderam o interesse em redes neurais artificiais, mas Hinton foi um dos que continuaram a trabalhar na área. Ele também ajudou a iniciar a nova explosão de resultados emocionantes; em 2006, ele e seus colegas Simon Osindero, Yee Whye Teh e Ruslan Salakhutdinov desenvolveram um método para pré-treinar uma rede com uma série de máquinas de Boltzmann em camadas, uma sobre a outra. Esse pré-treinamento deu às conexões na rede um melhor ponto de partida, o que otimizou seu treinamento para reconhecer elementos em imagens. 

Muitos pesquisadores estão agora desenvolvendo áreas de aplicação do aprendizado de máquina. Qual será o mais viável ainda está para ser visto, enquanto também há uma ampla discussão sobre as questões éticas que cercam o desenvolvimento e o uso dessa tecnologia. Como a física contribuiu com ferramentas para o desenvolvimento do aprendizado de máquina, é interessante ver como ela também está se beneficiando de redes neurais artificiais. 

O aprendizado de máquina tem sido usado há muito tempo em áreas da ciências. Isso inclui o uso de aprendizado de máquina para peneirar e processar as vastas quantidades de dados necessárias para descobrir a partícula de Higgs. Outras aplicações incluem a redução de ruído em medições de ondas gravitacionais de buracos negros em colisão ou a busca por exoplanetas. 

Nos últimos anos, essa tecnologia também começou a ser usada ao calcular e prever as propriedades de moléculas e materiais; como calcular a estrutura de moléculas de proteína, que determina sua função, ou descobrir quais novas versões de um material podem ter as melhores propriedades para uso em células solares mais eficientes. 

Fonte: Royal Swedish Academy of Sciences

sábado, 6 de abril de 2024

Termodinâmica e a expansão do Universo

A mudança de um regime de expansão desacelerada (na era dominada pela radiação e pela matéria) para um regime de expansão acelerada (na era dominada pela energia escura) se assemelharia a uma transição de fase termodinâmica.

© Revista Física (expansão térmica do Universo)

A ideia da expansão do Universo tem já quase um século. A proposição de que as galáxias distantes estão se afastando da Terra e de que a velocidade de afastamento cresce com a distância foi teorizada pelo belga Georges Lemaître (1894-1966) em 1927 e confirmada observacionalmente pelo norte-americano Edwin Hubble (1889-1953) dois anos depois. Tal confirmação foi proporcionada pelo redshift (desvio para o vermelho) do espectro da radiação eletromagnética recebida desses objetos longínquos. 

Em 1998, um novo e surpreendente ingrediente foi acrescentado ao modelo. Um conjunto de observações de estrelas supernovas muito distantes, realizadas pelo Supernova Cosmology Project e pelo High-Z Supernova Search Team, mostraram que a expansão do Universo estava se acelerando, e não sendo retardada por efeito gravitacional como se supunha. Essa descoberta levou ao conceito de energia escura, que supõe-se contribuir com mais de 68% da energia total do Universo observável atual, enquanto a matéria escura e a matéria comum contribuem com 26% e 5%, aproximadamente.

“Medidas de redshift apontam para uma expansão acelerada adiabática [isto é, sem troca de calor] e anisotrópica [que não é a mesma em todas as direções]”, diz Mariano de Souza, professor do Departamento de Física do Instituto de Geociências e Ciências Exatas da Universidade Estadual Paulista (Unesp), campus de Rio Claro. E prossegue: “Conceitos fundamentais da termodinâmica permitem inferir que toda expansão adiabática é acompanhada de um resfriamento, no efeito barocalórico [capaz de gerar calor quando submetido a pressão] que é quantificado pela chamada razão de Grüneisen.” 

Em 1908, o físico alemão Eduard August Grüneisen (1877-1949) propôs uma expressão matemática para o denominado parâmetro de Grüneisen efetivo, Γeff, que relaciona três propriedades físicas de um material: o coeficiente de expansão térmica, o calor específico e a compressibilidade isotérmica. Quase um século depois, em 2003, Lijun Zhu e colaboradores demonstraram que a parte singular de Γeff, chamada “razão de Grüneisen”, definida como a razão entre o coeficiente de expansão térmica e o calor específico, aumenta expressivamente nas vizinhanças de um ponto crítico quântico devido ao acúmulo de entropia. 

Em 2010, Mariano de Souza e colaboradores demonstraram que o mesmo ocorre para um ponto crítico a temperatura finita. Os pesquisadores da Unesp liderados por Souza utilizaram o parâmetro de Grüneisen para descrever aspectos intricados relacionados à expansão do Universo. 

“A dinâmica associada à expansão do Universo é geralmente descrita pelo modelo de um fluído perfeito, cuja equação de estado é dada por ω = p/ρ, onde ω é o chamado parâmetro da equação de estado, p a pressão e ρ a densidade de energia. Embora amplamente utilizado, o significado físico de ω ainda não havia sido discutido de forma apropriada. Ou seja, ω era tratado apenas como uma constante para cada era do Universo. Um dos resultados importantes de nosso trabalho é a identificação de ω com o parâmetro de Grüneisen efetivo, por meio da equação de estado de Mie-Grüneisen”, explica Souza. 

Os pesquisadores demonstraram, utilizando o parâmetro de Grüneisen, que o contínuo resfriamento do Universo está associado a um efeito barocalórico, isto é, que relaciona pressão e temperatura. Tal efeito, por sua vez, ocorre devido à expansão adiabática do Universo. Sob essa perspectiva, propuseram que, na era dominada pela energia escura, na qual atualmente nos encontramos, o parâmetro de Grüneisen depende do tempo. Um dos aspectos interessantes desse trabalho é que utiliza conceitos da termodinâmica e da física do estado sólido, como stress (tensão) e strain (deformação), para descrever a expansão anisotrópica do Universo. “Demonstramos que o parâmetro de Grüneisen está naturalmente incluído no tensor de stress energia-momento presente nas celebradas equações de campo de Einstein, o que proporciona uma nova maneira de se investigar efeitos anisotrópicos associados à expansão do Universo. 

Estes não excluem o cenário de um possível Big Rip. A hipótese do Big Rip (Grande Ruptura) foi apresentada pela primeira vez em 2003, em artigo publicado no periódico Physical Review Letters. Ela diz que, se a quantidade de energia escura for suficiente para acelerar a expansão do Universo além de uma velocidade crítica, isso poderá causar uma ruptura no “tecido” do espaço-tempo. 

Ainda sob a perspectiva do parâmetro de Grüneisen, os pesquisadores conjecturam que a mudança de um regime de expansão se assemelha a uma transição de fase termodinâmica. Isso porque que Γeff muda de sinal quando a expansão do Universo muda de desacelerada para acelerada. Tal mudança de sinal de assemelha-se à assinatura típica de transições de fase na física da matéria condensada. 

Como se sabe, a energia escura foi associada à constante cosmológica Λ [lambda]. Primeiro postulada e depois rejeitada por Einstein, a constante cosmológica foi reabilitada quando se descobriu que a expansão do Universo estava acelerando em vez de desacelerar. O modelo hegemônico, chamado de Λ-CMD(Lambda-Cold Dark Matter), confere à constante cosmológica um valor fixo. Isto é, supõe que a densidade da energia escura se mantenha constante à medida que o Universo expande. Mas existem outros modelos que assumem que densidade da energia escura, e consequentemente Λ, variem no tempo.

“Atribuir um valor fixo para Λ equivale a atribuir também um valor fixo para ω. Mas o reconhecimento de ω como o parâmetro de Grüneisen efetivo permite inferir uma dependência temporal de ω à medida que o Universo expande na era dominada pela energia escura. E isso implica diretamente em uma dependência temporal de Λ ou da constante universal de gravitação”, sublinha Souza. 

O estudo, como se percebe, abre uma nova via de interpretação da expansão do Universo sob a luz da termodinâmica e de conceitos da física da matéria condensada e pode vir a ter importantes desdobramentos.

Um artigo foi publicado no periódico Results in Physics

Fonte: Revista FAPESP