Notícias

Modelos de Linguagem de Grande Escala: Uma Nova Abordagem para Memória de Longo Prazo

Introdução

Os Modelos de Linguagem de Grande Escala (LLMs) baseados em arquiteturas Transformer revolucionaram a modelagem de sequências por meio de suas notáveis capacidades de aprendizado em contexto e habilidade de escalar efetivamente. No entanto, esses modelos dependem de módulos de atenção que funcionam como blocos de memória associativa, armazenando e recuperando associações de chave-valor.

Limitações dos Modelos de Linguagem de Grande Escala

No entanto, esse mecanismo tem uma limitação significativa: os requisitos computacionais crescem quadraticamente com o comprimento da entrada. Essa complexidade quadrática, tanto em tempo quanto em memória, apresenta desafios substanciais ao lidar com aplicações do mundo real, como modelagem de linguagem, compreensão de vídeo e previsão de séries temporais de longo prazo.

A Nova Abordagem: Titans

Pesquisadores do Google propuseram um novo módulo de memória de longo prazo neural projetado para melhorar os mecanismos de atenção, permitindo o acesso ao contexto histórico, mantendo o treinamento e a inferência eficientes. A inovação reside na criação de um sistema complementar, onde a atenção serve como memória de curto prazo para modelagem de dependência precisa dentro de contextos limitados, embora o componente de memória neural funcione como armazenamento de longo prazo para informações persistentes.

Arquitetura Titans

A arquitetura Titans introduz um design complexo de três partes para integrar as capacidades de memória de forma eficaz. O sistema consiste em três cabeçotes distintos: um módulo Core que utiliza atenção com tamanho de janela limitado para memória de curto prazo e processamento de dados primário, um ramo de Memória de Longo Prazo que implementa o módulo de memória neural para armazenar informações históricas, e um componente de Memória Persistente que contém parâmetros aprendíveis e independentes de dados.

Resultados Experimentais

Os resultados experimentais demonstram o desempenho superior dos Titans em várias configurações. As três variantes – MAC, MAG e MAL – superam modelos híbridos, como Samba e Gated DeltaNet-H2, com o módulo de memória neural provando ser o principal diferenciador. Entre as variantes, MAC e MAG mostram desempenho forte, especialmente no tratamento de dependências mais longas.

Conclusão

Em conclusão, pesquisadores da Google Research introduziram um sistema de memória de longo prazo neural inovador que funciona como um meta-aprendiz em contexto, capaz de memorização adaptativa durante o tempo de teste. Esse modelo recorrente é mais eficaz na identificação e armazenamento de padrões surpreendentes no fluxo de dados, oferecendo gerenciamento de memória mais complexo do que os métodos tradicionais.

Israel Cavalcante

Sou um entusiasta de tecnologia com mais de 10 anos de experiência, formado em Direito pelo Ibmec Rio e candidato ao MBA em Management pela PUC-Rio. Fundador da Uncraft, e de outras empresas, uma plataforma de mídia digital 100% gerida por IA. Por aqui, combino inovação, automação e estratégia para transformar a criação de conteúdo.

Me mande um e-mail!