2026 OpenClaw MEMORY.md et gouvernance du contexte de session : runbook auditable Mac cloud 7×24

Une fois le gateway au vert, les équipes butent encore sur réponses qui ralentissent, factures qui montent et questions répétées sur des décisions pourtant tranchées. Ce schéma pointe le plus souvent vers un contexte de session sans borne et un fichier MEMORY devenu tiroir append-only, pas un modèle faible. Cet article nomme les profils impactés, ce que la discipline apporte, une matrice de symptômes, au moins cinq gestes opérables alignés sur les logs gateway, des seuils citables et des ancres FAQ. À lire avec le guide observabilité et JSONL : là les sondes et échelles ; ici économie de la mémoire et du contexte.

Schéma : auditer MEMORY OpenClaw et contexte session sur Mac cloud

Sommaire

1. Résumé : inflation silencieuse du contexte

En 2026, un openclaw doctor sain et un port ouvert prouvent l’orchestration, pas que chaque prompt reste léger. Chaque tour concatène encore historique, sorties d’outils et notes long terme injectées. Quand MEMORY.md grossit sans structure, le bruit de récupération bat les faits réels et la latence suit la profondeur de conversation plus que les pages de statut fournisseur. La gouvernance ici ressemble à l’hygiène produit qu’au monitoring uptime classique : il faut des règles de propriété sur la vérité durable, une cadence de fusion et ce qui reste en JSONL plutôt que recollé en mémoire. Les sections suivantes séparent les faux positifs, offrent une matrice imprimable pour astreinte et ferment sur une checklist hebdomadaire qui réutilise les mêmes fenêtres temporelles que vos revues JSONL gateway.

Ignorer ce plan mène à deux extrêmes : affamer l’agent et obtenir des réponses fragiles, ou verser des journaux entiers dans MEMORY et s’étonner que chaque appel coûte cher. Le juste milieu—faits durables courts, titres clairs, coupe agressive du bavardage éphémère—rend les assistants 7×24 crédibles pour les flux métier.

Fixez par écrit la longueur maximale des réponses d’outil avant réinjection dans le chat ; résumer le JSON au lieu de le répéter entier réduit souvent la latence plus qu’un changement de modèle. MEMORY.md est la mémoire organisationnelle persistante ; le contexte de session est l’établi rechargé à chaque tour. Les confondre double la facture tokens et la confusion en incident.

2. Douleur : quatre erreurs de lecture

Ces histoires reviennent dès qu’un agent tourne sept jours sur sept sur un Mac mini cloud ou un petit VPS :

  1. Accuser d’abord le modèle Si la dixième réponse d’un fil est lente alors que la première était vive, estimez la taille de contexte injectée depuis les logs avant de changer d’endpoint.
  2. Prendre la répétition pour un manque d’intelligence Des politiques noyées dans un MEMORY sans titres ne remontent pas ; restructurez avant de toucher à la température.
  3. Jamais compacter chaque semaine Un MEMORY append-only devient de l’archéologie : trou de processus, pas flag manquant.
  4. Confondre OOM et dette de contexte Le code 137 et les redémarrages cgroup signalent des limites mémoire ; la seule boulimie de contexte laisse souvent le processus vivant avec une latence qui gonfle. Mauvais plan, heures perdues.
Règle pratique Mesurer la taille du tour courant, puis la structure MEMORY long terme, puis modèles ou canaux.

Inscrivez cette séquence dans le runbook à côté des sondes gateway : les nouveaux arrivants n’achètent pas le modèle le plus cher quand seul le contexte a grossi.

3. Matrice mémoire vs ressources vs gateway

Affichez-la à côté du tableau de sondes de l’article observabilité pour que les équipes argumentent avec des données.

SymptômePlan principalPreuve rapideSouvent pas la racine
Chaque tour plus lent, nouveau fil okContexte de sessionLatence tour 1 vs 10 ; énorme JSON outil répété tel quelRalentisseur fournisseur aléatoire
Coût en hausse, réponses courtesLong contexte caché / doublonsCorréler lignes de facturation et champs logs par requêteSeulement hausse tarifaire
Règles de la semaine dernière violéesDérive structure MEMORYNombre de lignes, intégrité des titres, sections obsolètesRégression de famille modèle
Processus disparaît, conteneur redémarreRessourcesCodes sortie, cgroup, espace disqueÉdits de prompt
Canal muet, sonde en échecGateway et pluginsgateway status, sondes canaux, échelle observabilitéNettoyage MEMORY

Baseline en couches

Gardez au moins deux couches : faits durables (rares, auditables) et préférences de session (jetables par sprint). Le durable exige des titres stables ; jamais cinquante décisions dans un seul paragraphe. Les données de session ne montent pas automatiquement en durable sans revue humaine ou scriptée. Prévoyez une fenêtre hebdo fixe pour fusionner le durable et déclenchez des coupes de session aux frontières d’itération ou seuils de taille.

Un mini guide de style versionné—titres autorisés, longueur max d’un paragraphe, sorties d’outils interdites en brut dans MEMORY—réduit le temps de revue plus qu’une automatisation prématurée. Les équipes qui le lient au même runbook que l’observabilité évitent les débats stériles sur qui est fautif entre modèle et infra.

4. Cinq étapes : rythme hebdo et alignement logs

Parcourez-les à la main avant d’automatiser avec launchd ou cron sur le Mac :

  1. Geler la baseline Noter lignes de MEMORY.md, mtime et flags de longueur de contexte dans un ticket.
  2. Fusion hebdomadaire Ranger les faits dans les bonnes sections, supprimer contradictions, interdire les dumps sans titre.
  3. Prompt d’audit de dérive Demander trois règles dures encore actives et les comparer à MEMORY ; l’écart est la dérive.
  4. Aligner JSONL gateway Sur la même fenêtre, tailer les logs structurés dans l’ordre de l’article observabilité. Si quotas et spawn sont calmes mais latence haute, revenir au dimensionnement de contexte.
  5. Sauvegarde avant réécriture Copier MEMORY et fichiers workspace critiques dans un dossier daté ; rollback = restauration fichier + reload gateway.

Après une grosse release ou un changement de canal, exécutez l’étape quatre en parallèle stricte avec l’article observabilité : même horaire, même rotation, même longueur de tail. On voit alors si la latence suit les événements gateway ou reste isolée dans le contexte.

Capture minimale :

#!/usr/bin/env bash set -euo pipefail test -f MEMORY.md && wc -l MEMORY.md | awk '{print "memory_lines",$1}' date -r MEMORY.md "+%Y-%m-%d %H:%M" 2>/dev/null || stat -f "%Sm" MEMORY.md openclaw status 2>/dev/null | head -n 20 || true

5. Métriques citables

Employez-les en revue de design ou incident puis calibrez à votre échelle. Journalisez aussi médiane et p95 des tailles de réponses d’outil réinjectées. Si plusieurs opérateurs éditent MEMORY à la main, ajoutez une ligne changelog date + auteur en tête de chaque fusion hebdo.

6. Pourquoi Mac cloud convient au plan mémoire

Des disques de VPS bruyants imitent des tempêtes de contexte : pics de lecture sporadiques ressemblent à d’immenses prompts. Les bureaux Windows distants et laptops grand public ajoutent sommeil et piles graphiques qui nuisent aux agents non supervisés. Docker ajoute une couche où montages et uid désynchronisent discrètement le chemin MEMORY que vous croyez éditer. Une machine Mac cloud dédiée se comporte comme un serveur SSH discipliné : chemins prévisibles pour logs, jobs launchd et archives nocturnes, avec la toolchain Apple déjà alignée sur OpenClaw. Conteneurs et VPS génériques suffisent pour expérimenter ; quand la gouvernance mémoire devient prod, il faut des E/S et une propriété qu’on peut raisonner—ce que des nœuds Mac loués VPSMAC fournissent avant une semaine de tuning prompt sur infra fragile.

La gouvernance MEMORY est gouvernance des coûts : la même revue hebdo qui taille les fichiers peut inclure cinq minutes de tableau de bord tokens pour un récit partagé finance et ingénierie. Des métriques communes évitent l’oscillation entre contexte illimité et resets brutaux au milieu d’une conversation.

Si vous mélangez conteneurs et OpenClaw bare metal sur un hôte, lancez openclaw doctor dans les deux mondes et comparez chemins MEMORY et JSONL. Une config à moitié dans le conteneur et à moitié sur l’hôte explique souvent des fusions hebdo vides et une facture tokens qui grimpe.