Construisez votre premier agent IA avec mémoire
Agent vs chatbot : quelle différence
Un chatbot répond aux messages de façon indépendante. Chaque conversation est isolée. Si vous avez dit votre nom hier, il ne le sait plus aujourd'hui.
Un agent possède 3 caractéristiques supplémentaires :
1. Mémoire persistante : se souvient de vous entre les sessions
2. Outils : peut appeler des API externes (chercher sur Google, envoyer un email, exécuter du code)
3. Planification : peut décomposer une tâche complexe en étapes
Dans ce cours, nous allons nous concentrer sur (1) : la mémoire persistante. Les outils et la planification font l'objet de cours séparés.

Architecture de base de la mémoire
Ce que l'agent doit retenir sur vous :
- Faits déclaratifs : « Pierre travaille avec Python », « aime le café sans sucre », « habite à Paris »
- Préférences : « répondre en français formel », « explications brèves, sans fioritures »
- Historique des interactions : résumé des N derniers dialogues
- Contexte éphémère : ce que vous faites EN CE MOMENT (effacé après la session)
Modèle de stockage :
`
memoria_usuario = {
"facts": [
{"text": "Pedro trabalha com Python", "pinned": False},
{"text": "prefere respostas curtas", "pinned": True}
],
"summary_last_10_sessions": "Usuário aprendeu sobre TLS, APIs e autenticação...",
"preferences": {"response_language": "pt-BR", "tone": "technical"}
}`
Comment Brainiall fait ça
Notre backend implémente déjà la mémoire persistante. Vous pouvez :
1. Cliquer sur l'icône 🧠 dans la barre latérale du chat
2. Voir la liste des faits que l'IA a appris sur vous
3. Épingler les faits importants (pour ne jamais les oublier)
4. Modifier ou supprimer
5. Désactiver la mémoire via le bouton bascule
En interne, nous utilisons :
- PostgreSQL JSONB pour stocker les faits par utilisateur
- Politique d'éviction : maximum 50 faits non épinglés, les plus anciens partent en premier
- Extraction : toutes les 10 messages, le LLM lit la conversation et suggère de nouveaux faits pour approbation
- Retrieval : avant de répondre, les faits pertinents sont recherchés et injectés dans le prompt
Construire votre agent via API
Exemple minimaliste Python :
`python
import httpx
BASE = "https://api.brainiall.com"
KEY = "brnl-xxxxx"
def chat(message, user_memory):
# Inject memory as system prompt context
memory_text = "\n".join(f"- {f}" for f in user_memory["facts"])
system = f"Você é um assistente pessoal. Sobre o usuário:\n{memory_text}"
r = httpx.post(
f"{BASE}/v1/chat/completions",
json={
"model": "claude-sonnet-4-6",
"messages": [
{"role": "system", "content": system},
{"role": "user", "content": message}
]
},
headers={"Authorization": f"Bearer {KEY}"}
)
return r.json()["choices"][0]["message"]["content"]
# Uso
memory = {"facts": ["Pedro trabalha com Python", "gosta de café sem açúcar"]}
print(chat("Que que bebi hoje de manhã?", memory))
# → "Você provavelmente bebeu um café sem açúcar, certo?"`
Ceci est un agent de base. Ajouter l'extraction automatique (le LLM lit et extrait les nouveaux faits) et le retrieval (n'injecter que les faits pertinents) porterait le code à ~100 lignes.
Pièges courants
- Mémoire gonflée : sans éviction, la mémoire grossit jusqu'à dépasser la limite de tokens
- Faits contradictoires : « Pierre aime le café » + « Pierre a arrêté de boire du café » — lequel prévaut ?
- Vie privée : l'utilisateur doit toujours pouvoir voir, modifier et supprimer ses données
- Mauvais périmètre : les souvenirs professionnels ne doivent pas fuiter dans les chats personnels
- Dérive : le LLM peut inventer de faux faits si le prompt est ambigu ; validez toujours avant de persister

Cas d'usage
- Tuteur personnalisé : se souvient des sujets que vous maîtrisez ou qui vous posent problème
- Nutritionniste virtuel : historique des repas, préférences, restrictions
- Coach de carrière : se souvient de vos objectifs, récentes réussites et axes d'amélioration
- Assistant à l'écriture : votre style, ton préféré, thèmes récurrents
- Support technique interne : se souvient des tickets précédents et des systèmes que vous utilisez
Testez dès maintenant
Dans le chat Brainiall, ouvrez une conversation, parlez un peu de vous, fermez, puis rouvrez une nouvelle conversation le lendemain — l'agent s'en souvient. Activez/désactivez via l'icône 🧠 dans la barre latérale. L'offre Pro à 29 R$ inclut la mémoire complète ; l'offre gratuite est limitée à 10 faits.