Guia de Funcionalidades e Arquiteturas

O que cada corredor da mercearia de frameworks oferece — e como os 6 principais padrões de arquitetura funcionam por dentro.

8 Corredores
  1. 1🧬 Identidade e Personalidade
  2. 2🛡 Segurança e Proteção
  3. 3💬 Canais de Comunicação
  4. 4🧠 Memória e Conhecimento
  5. 5⚙ Automação e Agendamento
  6. 6🔗 Integrações e Protocolos
  7. 7🧰 Skills e Ferramentas Prontas
  8. 8🏗 Padrões de Arquitetura
6 Arquiteturas
  1. OCOpenClaw — Hub Gateway
  2. ZCZeroClaw — Contratos de Trait
  3. NCNanoClaw — Isolamento por Container
  4. TCTinyClaw — Equipes de Agentes
  5. ICIronClaw — Segurança Zero-Trust
  6. A0Agent Zero — Loop de Aprendizado

Os 8 Corredores de Funcionalidades

Cada corredor agrupa um tipo de capacidade que você pode adicionar ao seu assistente. Pense neles como seções de uma mercearia — você escolhe os ingredientes que fazem sentido para o seu projeto.

🧬
Identidade e Personalidade
Como sua IA se apresenta

Define quem é sua IA — seu tom, valores, forma de falar e como ela se adapta a diferentes contextos. Sem isso, você tem um chatbot genérico. Com isso, você tem um assistente com voz própria.

Arquivo de Personalidade Soul.md
Defina personalidade, valores e estilo de comunicação em um arquivo de texto simples. Como escrever uma ficha de personagem para sua IA.
Padrão de Identidade Portátil AIEOS
Formato universal para exportar a personalidade da IA (psicologia, linguística, motivações) para qualquer sistema compatível.
Memória Isolada por Grupo
Cada grupo de conversa tem seu próprio cérebro. Chat de trabalho e o de família nunca misturam contexto.
Perfis de Agente Intercambiáveis
Personas pré-criadas (desenvolvedor, pesquisador, escritor) entre as quais você pode alternar instantaneamente.
Regras de Comportamento Dinâmicas
Altere o comportamento da IA no meio da conversa, sem reinicialização. Adaptação imediata ao contexto.
Arquivos do INTELECTO
intelecto/agent/ ├── context.py Carrega workspace/ e monta o system prompt final └── loop.py Repassa o system prompt ao LLM em cada turno workspace/ ├── SOUL.md Personalidade: tom, valores, estilo de resposta ├── AGENTS.md Regras de comportamento e uso de ferramentas ├── USER.md Perfil e preferências do usuário └── MEMORY.md Fatos de bootstrap carregados na inicialização
🛡
Segurança e Proteção
Protegendo seus dados e sistemas

Camadas de proteção entre sua IA e o mundo externo — desde sandboxing de ferramentas até detecção de ataques de prompt injection. Essencial em qualquer ambiente que acesse dados sensíveis.

WASM Sandbox para Ferramentas
Ferramentas rodam em contêineres WebAssembly isolados. Fisicamente não podem acessar seus arquivos ou segredos. Mais leve que Docker.
Isolamento por Container VM
Cada conversa roda em sua própria máquina virtual. A barreira mais forte entre a IA e seu sistema operacional.
Defesa contra Injeção de Prompt
Detecta e bloqueia tentativas de enganar sua IA com instruções ocultas em páginas web ou mensagens recebidas.
Detecção de Vazamento de Segredos
Verifica saídas das ferramentas antes de chegarem à IA para garantir que chaves de API e senhas não sejam expostas acidentalmente.
Armazenamento Criptografado de Segredos
Chaves de API criptografadas com ChaCha20 ou Fernet. Mesmo roubando o arquivo, não dá para ler.
Gates de Aprovação de Execução
Três níveis de controle: somente leitura, supervisionado (pede permissão) e autonomia total. Você decide quanto confiar.
Lista de Bloqueio de Comandos Perigosos
Bloqueia automaticamente comandos destrutivos (deletar tudo, formatar discos, reiniciar) por correspondência de substring.
Arquivos do INTELECTO
intelecto/security/ ├── secrets.py Fernet + PBKDF2: criptografa chaves com UUID do hardware └── safety.py Blocklist de comandos + path traversal + audit log intelecto/tools/ └── shell.py run_command com timeout de 60s e blocklist embutida ~/.intelecto/ ├── .secrets Chaves criptografadas (inúteis em outro hardware) └── audit.log Log de todos os comandos executados
💬
Canais de Comunicação
Onde sua IA vive

O canal é a "porta de entrada" da sua IA. Define em qual aplicativo o usuário vai interagir com ela. Cada canal tem características distintas — escolha onde seu público já está.

WhatsApp
O mais natural para uso empresarial diário no Brasil. Suporte a texto, imagens e notas de voz.
Telegram
Configuração mais simples (só um token). Mídia rica, botões inline, compartilhamento de arquivos. Ótimo para equipes técnicas.
Discord
Ideal para gerenciamento de comunidades e canais de equipe. Suporte a comandos com slash.
Slack
Integração sem IP público via Socket Mode. Perfeito para automação de processos internos.
E-mail (IMAP/SMTP)
A IA lê seu e-mail e pode responder. Filtra spam, resume newsletters, rascunha respostas.
Painel Web
Interface no navegador com status em tempo real, memória visível e progresso de tarefas.
Palavra de Ativação por Voz
Diga "hey claude" e sua IA escuta. Controle de voz sempre ativo, como um alto-falante inteligente privado.
Arquivos do INTELECTO
intelecto/channels/ ├── base.py Contrato abstrato: start(on_message), send(), stop() └── telegram.py Long-polling, split em >4096 chars, typing indicator # Para adicionar novos canais — implemente BaseChannel: channels/whatsapp.py WhatsApp (sem tocar no código do agente) channels/discord.py Discord (mesmo contrato) channels/slack.py Slack Socket Mode
🧠
Memória e Conhecimento
Como sua IA lembra

A diferença entre uma IA que esquece tudo ao reiniciar e uma que conhece você há meses. A escolha do sistema de memória define o custo, a precisão e a capacidade de recall a longo prazo.

Busca Híbrida Vetorial + por Palavras-Chave
Combina entendimento semântico (o que você quer dizer) com busca exata (palavras específicas). O mais preciso, mas com custo de embedding.
SQLite FTS5 (Busca por Palavras-Chave)
Full-text search com ranking BM25. Zero custo de API, sem modelos de embedding. Cobre 90% das necessidades de recall.
Sistema de Memória em Duas Camadas
Camada 1: fatos rápidos em MEMORY.md. Camada 2: log de histórico pesquisável. Simples e eficaz para projetos pequenos.
Memória de Soluções
A IA salva automaticamente soluções bem-sucedidas. Na próxima vez que enfrentar um problema similar, ela lembra do que funcionou.
Base de Conhecimento em Documentos
Faça upload de PDFs, planilhas e documentos. A IA pesquisa e analisa. O conhecimento da sua empresa ao alcance do chat.
Compactação Automática de Sessão
Quando conversas ficam longas demais, resume automaticamente as partes antigas para manter a IA rápida.
Arquivos do INTELECTO
intelecto/memory/ └── store.py SQLite FTS5 + BM25 + deduplicação automática (>80% = atualiza) intelecto/agent/ └── context.py memory.search(query) → injeta resultados no system prompt ~/.intelecto/ └── memory.db Banco persistente — sobrevive a reinicializações # Categorias armazenadas: fact · fatos sobre você e preferências conversation · resumos de conversas importantes solution · soluções para problemas recorrentes
Automação e Agendamento
Trabalhe enquanto você dorme

Transforma sua IA de reativa para proativa. Em vez de esperar você perguntar algo, ela executa tarefas em horários definidos, monitora eventos e trabalha em segundo plano.

Agendamento Cron
"Toda segunda às 9h, me envie um briefing do dia." Funciona como um despertador confiável para tarefas recorrentes.
Heartbeat (Verificações Periódicas)
A IA acorda a cada 30 minutos para checar se algo precisa de atenção. Proativa, não apenas reativa.
Automação de Navegador
Controla um navegador real: preenche formulários, clica em botões, extrai dados, tira screenshots. Automatiza trabalho web repetitivo.
Gatilhos via Webhook
Serviços externos (Zapier, n8n, Shopify) acionam sua IA via URL. Conecta-se a qualquer ecossistema de automação existente.
Sub-Agentes em Segundo Plano
IA auxiliar para tarefas longas. O agente principal permanece responsivo enquanto trabalhadores fazem o trabalho pesado.
Colaboração em Equipe de Agentes
Múltiplos agentes especializados (@coder, @reviewer, @writer) passam trabalho uns para os outros automaticamente.
Arquivos do INTELECTO — Roadmap Phase 2
intelecto/tools/ # planejado — não implementado no v0.1 ├── cron.py Agendamento: "toda segunda às 9h, me envie..." └── web.py Busca web e fetch de páginas/URLs intelecto/agent/ └── loop.py Já suporta múltiplos rounds — base para automação # Hoje implementado: com.intelecto.agent.plist Auto-restart via macOS launchd (ativo agora) start.sh Launcher com venv + install automático
🔗
Integrações e Protocolos
Conectando-se ao mundo

Como sua IA se conecta a provedores de modelos, serviços externos e protocolos padrão. Aqui ficam as decisões de custo, privacidade e escalabilidade de modelos de IA.

OpenRouter — 100+ Modelos, 1 Chave
Acesse Claude, GPT-4, Gemini, Mistral, DeepSeek, Llama e mais de 100 modelos com uma única chave de API. Troque de modelo sem mudar o código.
Suporte a LLM Local (Ollama)
Execute modelos no seu próprio computador. Zero custo de API, privacidade total, sem internet. Use junto com OpenRouter: nuvem para potência, local para privacidade.
Failover Multi-Provedor
Se o Claude cair, alterna automaticamente para o GPT ou Gemini. Com OpenRouter você tem 100+ modelos como fallback em uma chave só.
Seleção de Modelo por Tarefa
Claude Sonnet para raciocínio complexo, Haiku para respostas rápidas e baratas, DeepSeek R1 para código. Controle total de custo e qualidade.
MCP (Model Context Protocol)
Padrão universal para conectar IA a ferramentas externas. Um protocolo, milhares de integrações — o "USB" das ferramentas de IA.
Provedores de Mídia Especializada (fal.ai, Kie.ai)
Para imagem, som e vídeo, use provedores especializados. LLMs de texto são fracos em mídia — fal.ai e Kie.ai são a escolha certa para criação de conteúdo.
Sistema de Skills / Plugins
Instale novas capacidades como apps no celular. Sem necessidade de codificação para adicionar integrações pré-construídas.
Controle de Hardware / IoT
Controle dispositivos físicos via pinos GPIO, I2C e SPI. A IA pode interagir com o mundo real em projetos embarcados.
Arquivos do INTELECTO
intelecto/providers/ ├── base.py Contrato abstrato: async chat() → LLMResponse ├── openrouter.py OpenRouter via LiteLLM (100+ modelos com 1 chave) └── ollama.py Ollama local (zero custo, zero cloud) intelecto/ └── config.py Configura provider padrão e modelo por tarefa requirements.txt └── litellm ≥1.40.0 Interface unificada: OpenRouter, Ollama, qualquer LLM # Adicionar provedor = implementar BaseProvider: providers/gemini.py · providers/groq.py · providers/cohere.py
🧰
Skills Integradas e Ferramentas Prontas
O que vem pronto na caixa

O corredor mais extenso — são as capacidades concretas que sua IA pode executar hoje, sem implementar do zero. Abrange produtividade, comunicação, casa inteligente, desenvolvimento e muito mais.

Suite Google Workspace
Gmail, Calendar, Drive, Sheets, Docs e Slides. Integração completa com o Google: envie e-mails, crie planilhas, gerencie calendário.
GitHub (Issues, PRs, CI, API)
Fluxo completo: gerencie issues, revise pull requests, acione CI. Gerenciamento de código pelo chat.
Notion, Obsidian, Apple Notes, Bear
Integrações com os principais apps de notas. Crie, edite e pesquise notas diretamente pelo assistente.
Whisper Speech-to-Text + ElevenLabs TTS
Converta voz em texto e texto em fala natural. Funciona local (sem API) ou na nuvem.
Geração de Imagens com IA
Gere imagens via OpenAI API, Gemini ou provedores especializados como fal.ai. Suporte a inpainting e geração em lote.
Resumidor de URL / Vídeo / Podcast
Resuma páginas web, vídeos do YouTube e podcasts. Obtenha o essencial sem ler ou assistir tudo.
Controle de Casa Inteligente (Philips Hue, Sonos)
Controle luzes, caixas de som e dispositivos inteligentes por comandos de linguagem natural.
Orquestração de Agentes de Codificação
Execute Codex CLI, Claude Code ou outros agentes de codificação programaticamente. IA gerenciando outras IAs.
Composio (1000+ Aplicativos)
Acesso OAuth com um clique a 1000+ apps: Gmail, Notion, GitHub, Slack e muito mais via Composio.
Arquivos do INTELECTO
intelecto/tools/ ├── base.py Contrato: name, description, parameters, execute() ├── registry.py Descoberta e dispatch de ferramentas ├── filesystem.py read_file, write_file, list_directory └── shell.py run_command com safety check e timeout 60s # Adicionar skill = criar novo arquivo herdando BaseTool: tools/github.py · tools/notion.py · tools/calendar.py # Sem tocar em registry.py — descoberta automática
🏗
Padrões de Arquitetura
Como estruturar seu framework

Os padrões estruturais que definem como os componentes do seu assistente se conectam. A escolha aqui impacta manutenibilidade, escalabilidade e facilidade de extensão.

Modularidade por Traits / Classes Abstratas
Cada componente definido por um contrato (interface). Troque implementações sem tocar no código do agente.
Hub WebSocket Gateway
Servidor central ao qual todos os canais se conectam. O padrão "torre de controle" — máximo controle, maior complexidade.
Arquitetura de Barramento de Mensagens
Canais e agentes se comunicam por uma fila central. Separação limpa, fácil de adicionar novos canais.
Fila de Mensagens Baseada em Arquivos
Mensagens armazenadas como arquivos em diretórios (incoming → processing → outgoing). Simples, confiável, sem banco de dados.
Implantação com Binário Único
Um arquivo executável, sem dependências. Copie para qualquer lugar e funciona. A história de implantação mais simples possível.
Isolamento de Espaço de Trabalho por Projeto
Espaços separados por cliente ou projeto, cada um com sua própria memória e segredos. Sem mistura de dados.
Arquivos do INTELECTO
intelecto/ ├── main.py Entry point: detecta config, inicia bot └── config.py Singleton de configuração (~/.intelecto/config.json) intelecto/agent/ ├── loop.py Core: recebe → pensa → responde (max 5 rounds) └── context.py Monta system prompt + memórias relevantes # Contratos — cada subsistema implementa sua interface: providers/base.py async chat() → LLMResponse channels/base.py start(), send(), stop() memory/store.py save(), search(), forget(), recent() tools/base.py name, description, execute()

As 6 Arquiteturas em Detalhe

Como cada framework organiza seus componentes internamente. Estes são os blueprints que você seguiria ao construir com cada abordagem.

OC
OpenClaw — Hub Gateway
TypeScript · A arquitetura "torre de controle"

O OpenClaw usa um servidor WebSocket central (Gateway) como ponto único de entrada para todos os canais. Mensagens do WhatsApp, Telegram, Slack, iMessage e voz passam pelo mesmo hub antes de chegar ao agente. Isso garante controle centralizado de sessões, roteamento entre múltiplos agentes e suporte a canvas visual e voz de forma unificada.

CHANNELS AGENTS WhatsApp Telegram Slack Agent A Agent B Discord iMessage WebChat (Work) (Personal) \ | / \ / \ | / \ / v v v v v +------------------+ +------------------+ | GATEWAY |------| SESSION STORE | | (WebSocket Hub) | | (JSONL files) | +------------------+ +------------------+ | +--------+--------+ | | | TOOLS CANVAS VOICE Browser Live UI Wake Word Files Diagrams TTS/STT Shell React ElevenLabs
Ponto forte
Máximo controle e visibilidade. Tudo passa pelo hub — log, roteamento e sessões ficam num lugar só.
Complexidade
O Gateway é o ponto único de falha. Mais difícil de testar e de escalar horizontalmente.
Melhor para
Projetos que precisam de múltiplos canais, múltiplos agentes e interface visual ao mesmo tempo.
Estrutura de arquivos
src/gateway/server/ ├── server.ts Servidor WebSocket central — ponto único de entrada ├── server-channels.ts Conecta e gerencia todos os canais no gateway ├── server-chat.ts Sessões de chat, histórico e streaming ├── server-cron.ts Tarefas agendadas integradas ao gateway ├── server-startup.ts Boot, health checks e recovery automático └── ws-connection/ Gestão de conexões WebSocket individuais src/channels/registry.ts Descobre e registra canais disponíveis src/sessions/ Sessões armazenadas em JSONL por agente src/agents/pi-embedded-runner.ts Runner: recebe → pensa → responde src/gateway/protocol/ Protocolo de mensagens do gateway
ZC
ZeroClaw — Contratos de Trait (Rust)
Rust · A arquitetura "LEGO de componentes"

Cada subsistema (provedor de IA, canal, memória) é definido por um trait — um contrato que diz "qualquer implementação precisa ter estes métodos". O arquivo config.toml decide quais implementações usar em runtime. Você pode trocar o provedor de IA de Claude para Ollama, ou o canal de Telegram para WhatsApp, sem tocar no código do agente. O resultado é uma pegada de memória abaixo de 5MB e boot em 10ms.

config.toml define quais implementações usar: +-----------+ +-----------+ +----------+ | Provider | | Channel | | Memory | | (trait) | | (trait) | | (trait) | +-----------+ +-----------+ +----------+ ^ ^ ^ | | | +----+----+ +-----+-----+ +----+----+ |OpenAI | |Telegram | |SQLite | |Claude | |Discord | |Markdown | |Ollama | |Slack | |None | |Gemini | |WhatsApp | +---------+ |22 more..| |Email | +---------+ |Webhook | +-----------+ Troque QUALQUER peça sem tocar no código do agente
Ponto forte
Máxima modularidade e eficiência. Cada componente é testável de forma independente. Roda em hardware de $10.
Complexidade
Rust tem curva de aprendizado alta. O sistema de traits pode intimidar quem vem de linguagens dinâmicas.
Melhor para
Projetos que exigem eficiência extrema, hardware limitado ou troca frequente de provedores de IA.
Estrutura de arquivos — codebase Rust separado
src/ ├── main.rs Entry point e CLI └── config.rs Carrega config.toml e instancia implementações traits/ ├── provider.rs Trait Provider: async chat() → LLMResponse ├── channel.rs Trait Channel: start(), send(), stop() └── memory.rs Trait Memory: save(), search(), forget() providers/ Implementações intercambiáveis do Provider: ├── openai.rs claude.rs Provedores de nuvem (OpenAI, Anthropic) └── ollama.rs Modelo local (zero custo, zero cloud) channels/ Implementações intercambiáveis do Channel: └── telegram.rs discord.rs Troca de canal sem alterar o agente
NC
NanoClaw — Isolamento por Container
TypeScript · A arquitetura "cérebros separados"

O NanoClaw resolve um problema específico do WhatsApp para empresas: como garantir que o contexto de um grupo de trabalho nunca vaze para o grupo de família? A resposta é radical — cada conversa roda em seu próprio contêiner isolado, com seu próprio arquivo CLAUDE.md e sistema de arquivos separado. O host gerencia a conexão WhatsApp e despacha mensagens para o contêiner certo.

HOST (macOS/Linux) +--------------------------------------------+ | WhatsApp Connection (Baileys) | | SQLite Message Store | | Message Polling Loop | | Task Scheduler | +--------------------------------------------+ | | | +-- Container --+ +-- Container --+ +-- Container --+ | Work Group | | Family Group | | Admin Chat | | Claude SDK | | Claude SDK | | Claude SDK | | Own CLAUDE.md | | Own CLAUDE.md | | Full access | | Sandboxed FS | | Sandboxed FS | | All groups | +---------------+ +---------------+ +--------------+ Cada grupo = cérebro isolado. Não se enxergam.
Ponto forte
Isolamento total entre contextos. Ideal para uso empresarial onde dados de clientes diferentes não podem se misturar.
Complexidade
Overhead de contêiner por grupo. Não é o melhor para assistente pessoal de usuário único.
Melhor para
Empresas com múltiplos grupos no WhatsApp que precisam de contextos totalmente separados.
Estrutura de arquivos — codebase NanoClaw
src/ ├── host.ts Host: gerencia conexão WhatsApp (Baileys) ├── message-store.ts SQLite: fila de mensagens por grupo └── scheduler.ts Roteia mensagem para o container correto containers/ ├── manager.ts Cria e destrói containers por grupo ├── dispatch.ts Roteia mensagens para o container certo └── sandbox-fs.ts Filesystem isolado por container agent-container/ ├── runner.ts Executa Claude SDK dentro do container └── claude-md.ts Carrega o CLAUDE.md específico do grupo
TC
TinyClaw — Equipes de Agentes
TypeScript · A arquitetura "pequena empresa de IA"

O TinyClaw trata cada agente como um colaborador especializado de uma equipe. Mensagens entram numa fila baseada em arquivos (sem banco de dados) e cada agente pega da sua própria caixa de entrada. Um agente pode mencionar outro (@reviewer, @writer) para passar o trabalho adiante. Processamento paralelo: enquanto o @coder escreve código, o @reviewer pode estar analisando outro PR.

VOCÊ (via Discord / Telegram / WhatsApp) | v +------------------+ | Message Queue | incoming/ -> processing/ -> outgoing/ | (File-Based) | Cada agente pega da sua própria inbox +------------------+ | +----+----+----+----+ | | | @coder @reviewer @writer Claude OpenAI Claude Opus GPT-5 Sonnet | ^ ^ | | | +---menção----------+ Agentes passam trabalho entre si "[@reviewer: confere esse código]" Processamento paralelo. Sequencial por agente.
Ponto forte
Cada agente usa o modelo mais adequado para sua especialidade. Processamento paralelo de tarefas complexas.
Complexidade
Coordenação entre agentes pode criar dependências circulares. Debugging de fluxos multi-agente é mais trabalhoso.
Melhor para
Pipelines de desenvolvimento de software onde revisão, escrita e codificação acontecem em paralelo.
Estrutura de arquivos — OpenClaw (sub-agentes)
src/agents/ ├── subagent-registry.ts Registro e coordenação de sub-agentes ativos ├── openclaw-tools.ts Ferramentas: spawn, sessões paralelas, status ├── subagent-announce.ts Notificações @mentions entre agentes └── subagent-announce-queue.ts Fila de mensagens inter-agentes src/cron/isolated-agent/ Executa agentes em contexto totalmente isolado src/agents/lanes.ts Controle de paralelismo entre agentes Fila baseada em arquivos (sem banco de dados): incoming/ → processing/ → outgoing/ Cada agente lê de sua própria inbox em disco
IC
IronClaw — Segurança Zero-Trust
TypeScript · A arquitetura "fortaleza em camadas"

O IronClaw parte do princípio de que nenhuma entrada é confiável — nem mensagens do usuário, nem resultados de ferramentas, nem saídas do LLM. Cada estágio do pipeline tem sua própria camada de segurança: detecção de prompt injection na entrada, WASM sandbox para isolamento de ferramentas, e detector de vazamento de segredos na saída. O Job Scheduler permite até 5 execuções paralelas com controle de rate limiting.

Mensagens entram Camadas de Segurança CLI Slack Telegram | | v +----v----+ +--------------------+ | Channel | | Prompt Injection | | Manager |--->| Pattern Detection | +---------+ +--------------------+ | | +----v----+ +--------------------+ | Job | | WASM Sandbox | | Scheduler--->| Capability Allowlist| | (5x //) | | Rate Limiting | | | | Credential Inject | +---------+ +--------------------+ | | +----v----+ +--------------------+ | LLM | | Leak Detector | | NEAR AI | | Escaneia saídas | | +Ollama | | por segredos | +---------+ +--------------------+
Ponto forte
A arquitetura mais segura disponível. Ideal para ambientes corporativos ou onde a IA acessa dados sensíveis.
Complexidade
Cada camada adiciona latência. Configurar os allowlists de ferramentas exige planejamento cuidadoso.
Melhor para
Empresas com requisitos de compliance, dados de clientes ou onde um comando errado pode causar dano real.
Estrutura de arquivos — OpenClaw (camadas de segurança)
src/security/ ├── audit.ts Audit log completo de todas as ações do agente ├── audit-fs.ts Monitoramento e log de operações de filesystem └── external-content.ts Detecção de prompt injection em entradas externas src/agents/ ├── sandbox/sandbox.ts WASM sandbox: isola completamente as ferramentas ├── tool-policy.ts Gates de aprovação: 3 níveis de confiança ├── pi-tools.policy.ts Allowlist explícita de ferramentas permitidas └── bash-tools.ts Blocklist de comandos perigosos (rm -rf, etc.) src/channels/allowlists/ Allowlist de usuários por canal src/agents/context-window-guard.ts Proteção contra overflow de contexto
A0
Agent Zero — Loop de Aprendizado
Python · A arquitetura "IA que aprende fazendo"

O Agent Zero é construído em torno de um loop de melhoria contínua: antes de resolver um problema, consulta a memória ("já resolvi isso antes?"). Ao resolver, salva a solução para uso futuro. Para tarefas complexas, delega sub-agentes especializados em pesquisa ou código. Com o tempo, fica cada vez mais eficiente nas tarefas que você mais usa — e pode reescrever suas próprias regras de comportamento no meio de uma conversa.

Você faz uma pergunta | v +-----------+ +-----------+ | Agent 0 |---->| Memory | | (Main) |<----| Search | "Já resolvi isso antes?" +-----------+ +-----------+ | +----+----+ | | Sub-Agent Sub-Agent Delegação para (Research) (Code) tarefas complexas | | +----+----+ | +----v----+ +-----------+ | Solução |---->| Memory | | Achada! | | SALVAR | "Lembrar para a próxima" +---------+ +-----------+ Fica mais inteligente a cada interação
Ponto forte
Aprende com o uso. O paradigma "computador como ferramenta" permite que ele resolva problemas que ferramentas pré-construídas não cobrem.
Complexidade
Comportamento menos previsível — a IA pode tomar caminhos inesperados. Requer mais supervisão inicial.
Melhor para
Pesquisa, análise exploratória e tarefas abertas onde a flexibilidade importa mais que previsibilidade.
Estrutura de arquivos — codebase Python separado
agent_zero/ ├── agent.py Loop principal: pergunta → memória → resolve → salva ├── memory.py Busca e armazena soluções de sessões anteriores └── context.py Monta system prompt com memórias relevantes tools/ ├── web_search.py Busca web para pesquisa exploratória ├── code_exec.py Execução de código em sandbox └── file_ops.py Operações de arquivo e filesystem workspace/ ├── memory.json Soluções salvas de sessões anteriores └── prompts/ Templates de prompts por tipo de tarefa Fluxo: pergunta → busca memória → sub-agente → solução → salva