Binance anuncia remoção de mais 9 pares de criptomoedas, veja a lista 🔗livecoins.com.br
TCU anuncia piloto da Rede Blockchain Brasil 🔗livecoins.com.br
Polícia de Montenegro prende fundador da pirâmide FutureNet por fraude de R$ 115 milhões 🔗portaldobitcoin.uol.com.br
Participação da Grayscale no mercado de ETFs de Bitcoin cai abaixo de 25% à medida que rivais crescem 🔗portaldobitcoin.uol.com.br
Digitra.com disponibiliza depósito de DOGS Token, memecoin na rede do Telegram 🔗livecoins.com.br
Governo da Alemanha apreende US$ 28 milhões em operação contra caixas eletrônicos ilegais de Bitcoin 🔗portaldobitcoin.uol.com.br
Investidor lucra R$ 2,2 milhões após investir em criptomoeda de Wukong 🔗livecoins.com.br
McDonald’s tem conta hackeada no Instagram e promove golpe com criptomoeda 🔗livecoins.com.br
Sam Bankman-Fried não tinha ‘perfil de ladrão’, diz autor Michael Lewis 🔗portaldobitcoin.uol.com.br
Tiago Reis participa de debate sobre Bitcoin com Rytenband e comunidade reage: “despreparado e perdido” 🔗livecoins.com.br
“Cientista IA” está inventando e executando seus próprios experimentos 🔗webitcoin.com.br
Mt. Gox movimenta R$ 4,3 bilhões em Bitcoin, com uma parte indo para corretora Bitstamp 🔗portaldobitcoin.uol.com.br
PF prende hackers que roubaram milhões do Governo Federal e usavam criptomoedas para lavar dinheiro 🔗livecoins.com.br
Mercado Pago lança compra e venda da stablecoin do Mercado Livre, Meli Dólar, no Brasil 🔗portaldobitcoin.uol.com.br
Ganhos de 10.000% no horizonte: Memecoins como Dogecoin (DOGE) estão liderando o grupo na próxima alta do mercado 🔗webitcoin.com.br
Mercado Bitcoin lança cesta inteligente de memecoins, segmento que cresceu mais de 1.300% no ano 🔗portaldobitcoin.uol.com.br
Mercado Bitcoin lança cesta inteligente de memecoins, segmento que cresceu mais de 1.300% no ano 🔗
Domínio de mercado do Bitcoin cresce, sustentado por apoio de detentores de longo prazo 🔗webitcoin.com.br
Banco do Mercado Livre lança stablecoin no Brasil, a Meli Dólar 🔗livecoins.com.br
Bitcoin é bolha Tiago Reis e defensor debatem sobre criptomoedas em podcast 🔗portaldobitcoin.uol.com.br
“Cientista IA” está inventando e executando seus próprios experimentos 🔗webitcoin.com.br
Você já votou!
Copia de Contra Capa 1 13

Deixar programas aprenderem por meio de experimentação “aberta” pode desbloquear novas capacidades notáveis, bem como novos riscos.

À primeira vista, um lote recente de artigos de pesquisa produzidos por um proeminente laboratório de inteligência artificial da Universidade da British Columbia, em Vancouver, pode não parecer tão notável. Apresentando melhorias incrementais em algoritmos e ideias existentes, eles leem como o conteúdo de uma conferência ou revista de IA mediana.

Mas a pesquisa é, de fato, notável. Isso porque é inteiramente o trabalho de um “cientista IA” desenvolvido no laboratório da UBC em conjunto com pesquisadores da Universidade de Oxford e uma startup chamada Sakana AI.

O projeto demonstra um passo inicial em direção ao que pode ser um truque revolucionário: deixar a IA aprender inventando e explorando ideias novas. Elas simplesmente não são tão novas no momento. Vários artigos descrevem ajustes para melhorar uma técnica de geração de imagens conhecida como modelagem de difusão; outro descreve uma abordagem para acelerar o aprendizado em redes neurais profundas.

“Essas não são ideias inovadoras. Elas não são extremamente criativas”, admite Jeff Clune, o professor que lidera o laboratório da UBC. “Mas parecem ideias bem legais que alguém poderia tentar.”

Por mais incríveis que os programas de IA de hoje possam ser, eles são limitados por sua necessidade de consumir dados de treinamento gerados por humanos. Se os programas de IA puderem aprender de uma maneira aberta, experimentando e explorando ideias “interessantes”, eles podem desbloquear capacidades que vão além de qualquer coisa que os humanos tenham mostrado a eles.

O laboratório de Clune havia desenvolvido anteriormente programas de IA projetados para aprender dessa maneira. Por exemplo, um programa chamado Omni tentou gerar o comportamento de personagens virtuais em vários ambientes semelhantes a videogames, arquivando aqueles que pareciam interessantes e depois iterando neles com novos designs.

Esses programas anteriormente precisavam de instruções codificadas manualmente para definir o que era interessante. Grandes modelos de linguagem, no entanto, fornecem uma maneira de deixar esses programas identificarem o que é mais intrigante. Outro projeto recente do laboratório de Clune usou essa abordagem para permitir que programas de IA sonhassem com o código que permite que personagens virtuais façam todo tipo de coisas dentro de um mundo semelhante ao Roblox.

O cientista IA é um exemplo do laboratório de Clune improvisando sobre as possibilidades. O programa apresenta experimentos de aprendizado de máquina, decide o que parece mais promissor com a ajuda de um LLM, depois escreve e executa o código necessário – repita. Apesar dos resultados decepcionantes, Clune diz que programas de aprendizado abertos, como os próprios modelos de linguagem, podem se tornar muito mais capazes à medida que a potência computacional que os alimenta aumenta.

“É como explorar um novo continente ou um novo planeta”, diz Clune sobre as possibilidades desbloqueadas pelos LLMs. “Não sabemos o que vamos descobrir, mas onde quer que olhemos, há algo novo.”

Tom Hope, professor assistente da Universidade Hebraica de Jerusalém e cientista de pesquisa no Allen Institute for AI (AI2), diz que o cientista IA, como os LLMs, parece ser altamente derivativo e não pode ser considerado confiável. “Nenhum dos componentes é confiável no momento”, diz ele.

Hope aponta que os esforços para automatizar elementos da descoberta científica remontam décadas ao trabalho dos pioneiros da IA Allen Newell e Herbert Simon na década de 1970 e, posteriormente, ao trabalho de Pat Langley no Instituto para o Estudo da Aprendizagem e da Perícia. Ele também observa que vários outros grupos de pesquisa, incluindo uma equipe da AI2, recentemente aproveitaram LLMs para ajudar a gerar hipóteses, escrever artigos e revisar pesquisas. “Eles capturaram o espírito do tempo”, diz Hope sobre a equipe da UBC. “A direção é, claro, incrivelmente valiosa, potencialmente.”

Se os sistemas baseados em LLM podem ou não surgir com ideias verdadeiramente novas ou inovadoras também permanece incerto. “Essa é a pergunta de um trilhão de dólares”, diz Clune.

Mesmo sem avanços científicos, o aprendizado aberto pode ser vital para desenvolver sistemas de IA mais capazes e úteis aqui e agora. Um relatório publicado este mês pela Air Street Capital, uma empresa de investimento, destaca o potencial do trabalho de Clune para desenvolver agentes de IA mais poderosos e confiáveis, ou programas que realizam tarefas úteis de forma autônoma em computadores. Todas as grandes empresas de IA parecem considerar agentes como a próxima grande coisa.

Nesta semana, o laboratório de Clune revelou seu mais recente projeto de aprendizado aberto: um programa de IA que inventa e constrói agentes de IA. Os agentes projetados por IA superam os agentes projetados por humanos em algumas tarefas, como matemática e compreensão de leitura. O próximo passo será desenvolver maneiras de evitar que tal sistema gere agentes que se comportem mal.

“É potencialmente perigoso”, diz Clune sobre esse trabalho. “Precisamos fazer certo, mas acho que é possível.”

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *