terça-feira, 8 de outubro de 2024

Pioneiros da Inteligência Artificial

Os professores John J. Hopfield, da Universidade de Princeton, nos Estados Unidos, e Geoffrey E. Hinton, da Universidade de Toronto, no Canadá, ganharam o Prêmio Nobel de Física deste ano.

© Revista Física (ilustração de uma rede neural)

Os cientistas foram responsáveis pela pesquisa sobre o aprendizado de máquina com redes neurais artificiais. Essas redes são essenciais para o desenvolvimento da inteligência artificial (IA), permitindo que computadores realizem tarefas complexas de maneira similar ao cérebro humano. 

Geoffrey Hinton nasceu em 6 de dezembro de 1947, em Londres, Reino Unido. Ele é pesquisador vinculado à Universidade de Toronto (Canadá) e atuou como consultor no Google. Em 2023, ele pediu demissão da empresa e alertou sobre os riscos da IA para a humanidade. Hinton é um dos pioneiros no campo da inteligência artificial, sendo reconhecido por suas contribuições que revolucionaram o reconhecimento de fala e a classificação de imagens. Ao longo de sua carreira, recebeu prêmios importantes, como o Prêmio Turing, considerado o "Nobel da Computação". 

John Hopfield nasceu em 15 de julho de 1933, em Chicago, EUA. Ele é professor emérito da Universidade de Princeton, em Nova Jersey (EUA), e é amplamente conhecido por suas contribuições à neurobiologia e à física teórica. Hopfield desenvolveu um modelo de rede neural que simula o funcionamento do cérebro de seres humanos, permitindo o armazenamento e processamento de informações. Sua pesquisa lhe rendeu prêmios como a Medalha Dirac e o Prêmio Albert Einstein. 

A Academia Sueca de Ciências, em Estocolmo, afirmou que Hopfield e Hinton levaram o prêmio por suas contribuições fundamentais para a criação de métodos que são a base das chamadas redes neurais artificiais usadas hoje. Hopfield desenvolveu uma estrutura capaz de armazenar e reconstruir informações (as redes de Hopfield), enquanto Hinton inventou um sistema que identifica padrões em dados de forma autônoma, dois estudos essenciais para o avanço da IA. 

Nos anos 80, o norte-americano, que antes se dedicava a problemas teóricos de biologia molecular, voltou sua atenção para o estudo do cérebro humano e propôs a rede que consegue armazenar padrões e recuperá-los quando apresentados de forma incompleta. Dessa forma, ele criou o que chamamos de "memória associativa", onde uma rede neural artificial, de forma semelhante aos neurônios do cérebro humano, pode reconstruir dados mesmo que estejam parcialmente apagados ou distorcidos. Hinton, por sua vez, ampliou essas ideias, aplicando conceitos da física estatística criando uma tecnologia que consegue identificar padrões, não por instruções diretas, mas após ser alimentada com exemplos. Na prática, isso quer dizer que o sistema pode reconhecer novos elementos com base nas características que aprendeu em dados anteriores, podendo resolver problemas complexos que seriam impossíveis de serem geridos apenas por instruções passo a passo. A identificação de objetos em uma imagem é um exemplo disso, algo que requer uma compreensão mais profunda e dinâmica. 

A física estatística descreve sistemas que são compostos de muitos elementos semelhantes, como moléculas em um gás. É difícil, ou impossível, rastrear todas as moléculas separadas no gás, mas é possível considerá-las coletivamente para determinar as propriedades abrangentes do gás, como pressão ou temperatura. Existem muitas maneiras potenciais para as moléculas de gás se espalharem por seu volume em velocidades individuais e ainda resultarem nas mesmas propriedades coletivas. Os estados em que os componentes individuais podem existir em conjunto podem ser analisados usando física estatística, e a probabilidade de eles ocorrerem calculada. Alguns estados são mais prováveis do que outros; isso depende da quantidade de energia disponível, que é descrita em uma equação do físico do século XIX Ludwig Boltzmann. A rede de Hinton utilizou essa equação, e o método foi publicado em 1985 sob o nome marcante de máquina de Boltzmann. 

A máquina de Boltzmann é comumente usada com dois tipos diferentes de nós. As informações são alimentadas para um grupo, que são chamados de nós visíveis. Os outros nós formam uma camada oculta. Os valores e conexões dos nós ocultos também contribuem para a energia da rede como um todo. A máquina é executada aplicando uma regra para atualizar os valores dos nós um de cada vez. Eventualmente, a máquina entrará em um estado no qual o padrão dos nós pode mudar, mas as propriedades da rede como um todo permanecem as mesmas. Cada padrão possível terá então uma probabilidade específica que é determinada pela energia da rede de acordo com a equação de Boltzmann. Quando a máquina para, ela cria um novo padrão, o que torna a máquina de Boltzmann um exemplo inicial de um modelo generativo. A máquina de Boltzmann pode aprender, não a partir de instruções, mas a partir de exemplos fornecidos. Ela é treinada atualizando os valores nas conexões da rede para que os padrões de exemplo, que foram alimentados aos nós visíveis quando ela foi treinada, tenham a maior probabilidade possível de ocorrer quando a máquina for executada. Se o mesmo padrão for repetido várias vezes durante esse treinamento, a probabilidade desse padrão será ainda maior. O treinamento também afeta a probabilidade de produzir novos padrões que se assemelham aos exemplos nos quais a máquina foi treinada.

Uma máquina de Boltzmann treinada pode reconhecer características familiares em informações que não viu anteriormente. Em sua forma original, a máquina de Boltzmann é bastante ineficiente e leva muito tempo para encontrar soluções. As coisas se tornam mais interessantes quando ela é desenvolvida de várias maneiras, que Hinton continuou explorarando. Versões posteriores foram reduzidas, pois as conexões entre algumas das unidades foram removidas. Acontece que isso pode tornar a máquina mais eficiente. Durante a década de 1990, muitos pesquisadores perderam o interesse em redes neurais artificiais, mas Hinton foi um dos que continuaram a trabalhar na área. Ele também ajudou a iniciar a nova explosão de resultados emocionantes; em 2006, ele e seus colegas Simon Osindero, Yee Whye Teh e Ruslan Salakhutdinov desenvolveram um método para pré-treinar uma rede com uma série de máquinas de Boltzmann em camadas, uma sobre a outra. Esse pré-treinamento deu às conexões na rede um melhor ponto de partida, o que otimizou seu treinamento para reconhecer elementos em imagens. 

Muitos pesquisadores estão agora desenvolvendo áreas de aplicação do aprendizado de máquina. Qual será o mais viável ainda está para ser visto, enquanto também há uma ampla discussão sobre as questões éticas que cercam o desenvolvimento e o uso dessa tecnologia. Como a física contribuiu com ferramentas para o desenvolvimento do aprendizado de máquina, é interessante ver como ela também está se beneficiando de redes neurais artificiais. 

O aprendizado de máquina tem sido usado há muito tempo em áreas da ciências. Isso inclui o uso de aprendizado de máquina para peneirar e processar as vastas quantidades de dados necessárias para descobrir a partícula de Higgs. Outras aplicações incluem a redução de ruído em medições de ondas gravitacionais de buracos negros em colisão ou a busca por exoplanetas. 

Nos últimos anos, essa tecnologia também começou a ser usada ao calcular e prever as propriedades de moléculas e materiais; como calcular a estrutura de moléculas de proteína, que determina sua função, ou descobrir quais novas versões de um material podem ter as melhores propriedades para uso em células solares mais eficientes. 

Fonte: Royal Swedish Academy of Sciences