Referências

Fontes e Tecnologias

Fontes acadêmicas, tecnologias e padrões citados ao longo do guia. Acesso em 13 abr. 2026.

Acadêmicas
Liu et al., 2023

Lost in the Middle: How Language Models Use Long Contexts — estudo seminal sobre degradação de atenção em contextos longos. arXiv:2307.03172.

Tulving, E., 1972

Episodic and Semantic Memory — Organization of Memory, Academic Press. Distinção fundacional entre memória episódica e semântica que fundamenta a taxonomia funcional usada neste guia.

Tulving, E., 1985

Memory and Consciousness — Canadian Psychology, 26(1), 1–12. Expande a distinção episódica/semântica e introduz o conceito de memória autonoética.

Baddeley, A. & Hitch, G., 1974

Working Memory — Psychology of Learning and Motivation, 8, 47–89. Modelo de memória de trabalho com loop fonológico, bloco visuoespacial e executivo central.

Schacter, D.L. & Tulving, E., 1994

Memory Systems — MIT Press. Revisão abrangente dos sistemas de memória humana: episódica, semântica, procedural, priming e condicionamento.

Squire, L.R. & Zola, S.M., 1996

Structure and Function of Declarative and Nondeclarative Memory Systems — PNAS 93(24). Fundamenta a distinção entre memória declarativa e não-declarativa em neurociência.

Packer et al., 2023 — MemGPT

MemGPT: Towards LLMs as Operating Systems — arXiv:2310.08560. Introduz hierarquia de memória inspirada em SO para agentes com contexto ilimitado.

Wang et al., 2024 — Memory Survey

A Survey on the Memory Mechanism of Large Language Model based Agents — arXiv:2404.13501. Revisão sistemática de mecanismos de memória em agentes LLM.

Zeng et al., 2023 — CoALA

Cognitive Architectures for Language Agents (CoALA) — arXiv:2309.02427. Framework unificado para arquiteturas cognitivas de agentes com memória.

Lewis et al., 2020 — RAG

Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks — arXiv:2005.11401. Paper original que define o padrão RAG.

Edge et al., 2024 — GraphRAG

From Local to Global: A Graph RAG Approach to Query-Focused Summarization. Microsoft Research. Demonstra vantagem de grafos sobre RAG vetorial plano em perguntas globais.

Petroni et al., 2019

Language Models as Knowledge Bases? — arXiv:1909.01066. Demonstra que LLMs armazenam fatos factuais nos pesos, com viés e imprecisão.

Meng et al., 2022 — ROME

Locating and Editing Factual Associations in GPT (ROME) — arXiv:2202.05262. Técnica para editar fatos no conhecimento paramétrico sem re-treinamento completo.

Zhang et al., 2025 — A-MEM

A-MEM: Agentic Memory for LLM Agents — arXiv:2502.10291. Sistema de memória inspirado em Zettelkasten com rede de notas interconectadas.

Falkor et al., 2025 — Graphiti

Graphiti: A Temporally-Aware Knowledge Graph for AI Agents. Zep AI, jan/2025. Introduz valid_at/invalid_at para raciocínio temporal em grafos.

Vaswani et al., 2017 — Attention

Attention Is All You Need — NeurIPS 2017. Paper fundacional dos Transformers — define a complexidade O(n²) da atenção que motiva a necessidade de memória externa.

Karpathy, 2026 — LLM Wiki

Padrão emergente de wiki compilado por LLM: documentos curados por humanos, resumidos e indexados pelo modelo. Abr/2026.

LongMemEval Benchmark, 2024

Benchmark para avaliação de sistemas de memória de longo prazo em agentes conversacionais. Usado por Mem0 e outros sistemas para comparação padronizada.

Bancos e Infraestrutura
Qdrant

Banco vetorial de alta performance para busca semântica. Rust-native, filtros de payload, quantização nativa.

Pinecone

Banco vetorial gerenciado, popular em produção. Hybrid search, namespaces multi-tenant, serverless tier.

Weaviate

Banco vetorial open-source com módulos de IA integrados. Hybrid search BM25+vetorial, GraphQL API.

ChromaDB

Banco vetorial open-source, ideal para prototipagem. Zero configuração, persistência em SQLite.

Milvus

Banco vetorial distribuído para escala enterprise. Suporte a bilhões de vetores, múltiplos índices (HNSW, DiskANN).

FAISS (Meta AI)

Biblioteca de busca vetorial de alta performance. Suporte a GPU, múltiplos algoritmos. Backend de muitos bancos vetoriais.

pgvector

Extensão vetorial para PostgreSQL. Vetores + dados relacionais em um só banco, índices HNSW e IVFFlat.

Neo4j

Banco de grafos líder de mercado. Cypher query language, suporte a grafos de conhecimento e RAG híbrido.

FalkorDB

Banco de grafos otimizado para agentes de IA. Performance superior ao Neo4j para grafos de médio porte.

Kuzu

Banco de grafos embarcado (como SQLite). Cypher SQL, alta performance, sem servidor separado.

Graphiti

Grafos temporais para memória de agentes (Zep). Introduz valid_at/invalid_at para raciocínio temporal.

PostgreSQL + pgvector

Banco relacional com suporte a pgvector para embeddings. Transações ACID com busca semântica.

Redis

Key-value store in-memory para memória de curto prazo. Latência sub-ms, TTL nativo, Redis Stack com busca vetorial.

Supabase

Backend open-source com PostgreSQL, pgvector, auth e storage integrados. Plano gratuito generoso.

Letta / MemGPT

Framework com camadas nativas de memória para agentes. Inspirado em sistemas operacionais com paginação de contexto.

Mem0

Camada de memória adaptativa: vetorial + grafo + relacional. LongMemEval: 26% acima do baseline. Abr/2025.

Zep Cloud

Memória de longo prazo com extração automática de fatos e grafo temporal (Graphiti). Cloud ou self-hosted.

OpenBrain

Memória semântica portável via Supabase pgvector e MCP server nativo. Mar/2026.

OMEGA

Memória de agente privacy-first: self-hosted, ONNX local, SQLite. Zero dependências de cloud. Abr/2026.

Padrões e Protocolos
MCP — Model Context Protocol

Padrão aberto da Anthropic para padronização de contexto e ferramentas em agentes de IA. Adotado por Claude, Cursor, Windsurf, Zed e +100 integrações.

A2A — Agent-to-Agent

Protocolo do Google para interoperabilidade entre agentes autônomos.

RAG — Retrieval-Augmented Generation

Padrão arquitetural de recuperação semântica que combina busca vetorial com geração de linguagem. Definido por Lewis et al. (2020).

GraphRAG — Microsoft

RAG baseado em grafos de conhecimento para raciocínio sobre documentos complexos. Queries globais sobre corpus inteiro.

LangGraph

Framework para agentes stateful com grafos de execução e memória persistente (LangGraph Store). Checkpointing de estado.

LangChain

Framework de orquestração de LLMs com memória de conversação, RAG e integração com bancos vetoriais.

LlamaIndex

Framework especializado em indexação e recuperação de conhecimento operacional via RAG.

n8n

Plataforma de automação de workflows com nós de IA e memória. Visual workflow builder, +400 integrações.

Ollama

Runtime local para LLMs open-source. API compatível com OpenAI, suporte a Llama, Mistral, DeepSeek e +100 modelos.

Governança e Privacidade
GDPR — Regulation (EU) 2016/679

General Data Protection Regulation. Art. 17: Direito ao esquecimento — obrigação de deletar dados pessoais mediante solicitação.

LGPD — Lei nº 13.709/2018

Lei Geral de Proteção de Dados Pessoais — Brasil. Equivalente ao GDPR para dados de cidadãos brasileiros.

CCPA — California Consumer Privacy Act

Lei de privacidade da Califórnia. Direito de opt-out de venda de dados pessoais e direito de exclusão.

EU AI Act, 2024

Regulação europeia de IA. Sistemas de memória com dados biométricos ou sensíveis classificados como alto risco.

Camada Humana
Notion / Confluence / Obsidian

Wikis e bases de conhecimento para memória semântica humana.

Linear / Jira / GitHub Issues

Rastreamento de tarefas e decisões — memória episódica de produto.

Git

Uma forma de memória episódica auditável do código.

CLAUDE.md / AGENTS.md

Convenção de identidade e instrução persistente para agentes de codificação.

Markdown / YAML / JSON

Formatos de arquivo plano para memória simples e portável.