Esta postagem foi traduzida automaticamente. Para a versão original, clique aqui.
Você conhece aquele momento quando sua sessão do Copilot chega no /compact e o agente esquece completamente o que você estava fazendo? Você passa os próximos cinco minutos re-explicando a estrutura de arquivos, o teste falhando, as três abordagens que já tentou. Então acontece de novo.
Desi Villanueva mediu: 68 minutos por dia — só em re-orientação. Não escrevendo código. Não revisando PRs. Só atualizando a IA sobre coisas que ela já sabia.
Acontece que há uma razão concreta para isso — e uma solução concreta.
A Mentira da Janela de Contexto
Seu agente vem com um número grande na caixa. 200K tokens. Parece massivo. Na prática é um teto, não uma garantia.
Aqui está a matemática real:
- 200K de contexto total
- Menos ~65K para ferramentas MCP carregadas no início (~33%)
- Menos ~10K para arquivos de instruções como
AGENTS.md
Isso deixa você com aproximadamente 125K antes de digitar uma palavra. E piora — LLMs não degradam gradualmente. Eles batem em uma parede em torno de 60% de capacidade.
Limite efetivo: 45K tokens antes que a qualidade degrade.
O Imposto de Compactação
Cada /compact custa seu estado de flow. A parte cruel: a memória já existe. O Copilot CLI escreve cada sessão em um banco de dados SQLite local em ~/.copilot/session-store.db. O agente simplesmente não consegue lê-lo.
auto-memory: Uma Camada de Recall, Não um Sistema de Memória
pip install auto-memory
~1.900 linhas de Python. Zero dependências. Instalado em 30 segundos.
Em vez de inundar o contexto com resultados grep, você dá ao agente acesso cirúrgico ao que realmente importa — 50 tokens em vez de 10.000.
Conclusão
Context rot é uma restrição arquitetural real. auto-memory contorna isso dando ao seu agente um mecanismo de recall barato e preciso.
Confira: auto-memory no GitHub. Post original de Desi Villanueva: I Wasted 68 Minutes a Day.
