Deixar programas aprenderem por meio de experimentação “aberta” pode desbloquear novas capacidades notáveis, bem como novos riscos.
À primeira vista, um lote recente de artigos de pesquisa produzidos por um proeminente laboratório de inteligência artificial da Universidade da British Columbia, em Vancouver, pode não parecer tão notável. Apresentando melhorias incrementais em algoritmos e ideias existentes, eles leem como o conteúdo de uma conferência ou revista de IA mediana.
Mas a pesquisa é, de fato, notável. Isso porque é inteiramente o trabalho de um “cientista IA” desenvolvido no laboratório da UBC em conjunto com pesquisadores da Universidade de Oxford e uma startup chamada Sakana AI.
O projeto demonstra um passo inicial em direção ao que pode ser um truque revolucionário: deixar a IA aprender inventando e explorando ideias novas. Elas simplesmente não são tão novas no momento. Vários artigos descrevem ajustes para melhorar uma técnica de geração de imagens conhecida como modelagem de difusão; outro descreve uma abordagem para acelerar o aprendizado em redes neurais profundas.
“Essas não são ideias inovadoras. Elas não são extremamente criativas”, admite Jeff Clune, o professor que lidera o laboratório da UBC. “Mas parecem ideias bem legais que alguém poderia tentar.”
Por mais incríveis que os programas de IA de hoje possam ser, eles são limitados por sua necessidade de consumir dados de treinamento gerados por humanos. Se os programas de IA puderem aprender de uma maneira aberta, experimentando e explorando ideias “interessantes”, eles podem desbloquear capacidades que vão além de qualquer coisa que os humanos tenham mostrado a eles.
O laboratório de Clune havia desenvolvido anteriormente programas de IA projetados para aprender dessa maneira. Por exemplo, um programa chamado Omni tentou gerar o comportamento de personagens virtuais em vários ambientes semelhantes a videogames, arquivando aqueles que pareciam interessantes e depois iterando neles com novos designs.
Esses programas anteriormente precisavam de instruções codificadas manualmente para definir o que era interessante. Grandes modelos de linguagem, no entanto, fornecem uma maneira de deixar esses programas identificarem o que é mais intrigante. Outro projeto recente do laboratório de Clune usou essa abordagem para permitir que programas de IA sonhassem com o código que permite que personagens virtuais façam todo tipo de coisas dentro de um mundo semelhante ao Roblox.
O cientista IA é um exemplo do laboratório de Clune improvisando sobre as possibilidades. O programa apresenta experimentos de aprendizado de máquina, decide o que parece mais promissor com a ajuda de um LLM, depois escreve e executa o código necessário – repita. Apesar dos resultados decepcionantes, Clune diz que programas de aprendizado abertos, como os próprios modelos de linguagem, podem se tornar muito mais capazes à medida que a potência computacional que os alimenta aumenta.
“É como explorar um novo continente ou um novo planeta”, diz Clune sobre as possibilidades desbloqueadas pelos LLMs. “Não sabemos o que vamos descobrir, mas onde quer que olhemos, há algo novo.”
Tom Hope, professor assistente da Universidade Hebraica de Jerusalém e cientista de pesquisa no Allen Institute for AI (AI2), diz que o cientista IA, como os LLMs, parece ser altamente derivativo e não pode ser considerado confiável. “Nenhum dos componentes é confiável no momento”, diz ele.
Hope aponta que os esforços para automatizar elementos da descoberta científica remontam décadas ao trabalho dos pioneiros da IA Allen Newell e Herbert Simon na década de 1970 e, posteriormente, ao trabalho de Pat Langley no Instituto para o Estudo da Aprendizagem e da Perícia. Ele também observa que vários outros grupos de pesquisa, incluindo uma equipe da AI2, recentemente aproveitaram LLMs para ajudar a gerar hipóteses, escrever artigos e revisar pesquisas. “Eles capturaram o espírito do tempo”, diz Hope sobre a equipe da UBC. “A direção é, claro, incrivelmente valiosa, potencialmente.”
Se os sistemas baseados em LLM podem ou não surgir com ideias verdadeiramente novas ou inovadoras também permanece incerto. “Essa é a pergunta de um trilhão de dólares”, diz Clune.
Mesmo sem avanços científicos, o aprendizado aberto pode ser vital para desenvolver sistemas de IA mais capazes e úteis aqui e agora. Um relatório publicado este mês pela Air Street Capital, uma empresa de investimento, destaca o potencial do trabalho de Clune para desenvolver agentes de IA mais poderosos e confiáveis, ou programas que realizam tarefas úteis de forma autônoma em computadores. Todas as grandes empresas de IA parecem considerar agentes como a próxima grande coisa.
Nesta semana, o laboratório de Clune revelou seu mais recente projeto de aprendizado aberto: um programa de IA que inventa e constrói agentes de IA. Os agentes projetados por IA superam os agentes projetados por humanos em algumas tarefas, como matemática e compreensão de leitura. O próximo passo será desenvolver maneiras de evitar que tal sistema gere agentes que se comportem mal.
“É potencialmente perigoso”, diz Clune sobre esse trabalho. “Precisamos fazer certo, mas acho que é possível.”