Por que todos os modelos adicionaram memória externa
ChatGPT, Claude, Gemini e Perplexity chegaram à mesma conclusão: o modelo em si é stateless por design. A solução para memória persistente não está dentro do modelo — está na infraestrutura ao redor dele.
Por que não memória interna (fine-tuning)?
A pergunta óbvia é: por que não simplesmente treinar o modelo com as informações do usuário? Há quatro razões técnicas que tornam isso inviável.
Treinar uma versão do modelo para cada usuário exigiria recursos computacionais proibitivos. Com bilhões de usuários, é simplesmente impossível.
Incorporar novas informações via treinamento leva dias ou semanas. Memória externa é instantânea — você salva e já está disponível na próxima chamada.
Informações de um usuário treinadas no modelo poderiam vazar para outros usuários via extração adversarial. Isolamento por usuário é impossível em modelos compartilhados.
Uma vez que informação está nos pesos do modelo, não há como removê-la seletivamente. Memória externa pode ser deletada com um simples DELETE no banco de dados.
Como cada produto implementa na prática
Clique em qualquer produto para ver os detalhes de implementação, as camadas de memória e o insight arquitetural por trás da decisão.
O padrão comum
Independente do produto, o padrão é sempre o mesmo: armazenar informação em um sistema externo (banco de dados, arquivos, vetores) e injetar o que é relevante no contexto da chamada atual. O modelo não muda — a infraestrutura ao redor dele muda.
Este guia explica como construir essa infraestrutura de forma explícita e arquiteturalmente consciente — em vez de depender do que cada produto decide guardar por você.