Aller au contenu

Hermes Agent : agent IA persistant avec apprentissage continu par Nous Research

Resume

Hermes Agent est un agent IA autonome et persistant par Nous Research. 17.4k stars, v0.5.0, MIT, Python. Differenciateurs cles : apprentissage continu (cree automatiquement des skills a partir de l'experience), memoire persistante avec profil utilisateur (via Honcho), multi-provider (Claude, GPT, modeles locaux via OpenRouter), multi-plateforme (terminal, Telegram, Discord, Slack, WhatsApp, Signal, Email), sous-agents isoles via RPC, cron integre, support MCP. Migration directe depuis OpenClaw (hermes claw migrate). 6 backends d'execution : local, Docker, SSH, Daytona, Singularity, Modal.

Buzz actuel : @iamsupersocks (18K+ views) teste et prepare un article. Le tweet cite provient de la migration massive OpenClaw -> Hermes.

Analyse critique

Ce qui est solide : - L'apprentissage continu est le vrai differenciateur. Claude Code a MEMORY.md (memoire manuelle), le workflow ProbatioVault a learnings.jsonl (memoire structuree). Hermes genere automatiquement des skills procedurales a partir de l'usage — c'est un cran au-dessus en automatisation. - Multi-provider sans code : hermes model pour changer de modele. Le workflow ProbatioVault fait la meme chose via les assignees Jira (declaratif), mais Hermes le rend accessible a n'importe qui. - Sous-agents isoles avec scripts Python via RPC — meme pattern que le step 6b (subprocess claude -p isoles). La difference : Hermes reduit la consommation de contexte en delegant a des scripts, pas a d'autres LLM. - 17.4k stars et 214 contributeurs — c'est un projet communautaire serieux, pas un one-man show. - La migration depuis OpenClaw montre une strategie d'acquisition d'utilisateurs. Le fondateur d'OpenClaw a rejoint Anthropic, Hermes recupere la base.

Ce qui est a nuancer : - "Apprentissage continu" = le systeme cree des skills. Mais sans validation de la qualite de ces skills, c'est du garbage-in-garbage-out automatise. Si l'agent apprend un mauvais pattern, il le reproduira indefiniment. Le workflow ProbatioVault resout ca avec les gates : un learning n'est indexe que s'il passe la retrospective (step 10). - Multi-plateforme (Telegram, WhatsApp, etc.) elargit la surface d'attaque. Un agent qui execute du code et qui est accessible par WhatsApp — le modele de securite n'est pas detaille. - v0.5.0 avec 368 issues ouvertes et 563 PRs — ca sent le projet en hyper-croissance avec de la dette technique.

Comparaison directe avec le workflow ProbatioVault :

Dimension Hermes Agent ProbatioVault Governance
Orchestration Agent autonome persistant Claude Code sous contrainte FSM
Apprentissage Auto-generation de skills Learnings indexes apres retrospective
Validation Aucune gate, pas de scoring 3 gates PMO, scoring deterministe
Memoire Profil utilisateur + skills auto MEMORY.md + learnings.jsonl + FAISS
Multi-provider Natif (OpenRouter, 200+ modeles) Declaratif (assignees Jira)
Sous-agents Scripts Python via RPC Subprocess claude -p isoles
Securite Non detaille Cerveau positronique (Art. I-VII)
Cible Dev solo, productivite Conformite, auditabilite

Pertinence ProbatioVault

Impact modere. Hermes est le troisieme projet (apres Outworked et GSD) qui converge vers les memes patterns que le workflow ProbatioVault — sous-agents isoles, skills en Markdown, memoire persistante — mais sans gouvernance. Le pattern se repete :

  • Outworked : multi-agents Claude, pas de gouvernance
  • GSD : spec-driven, isolation de contexte, pas de gates
  • Hermes : apprentissage continu, multi-provider, pas de validation

La tendance est claire : l'ecosysteme converge vers les memes briques (isolation, memoire, skills), mais ProbatioVault reste le seul a ajouter la couche gouvernance (gates, scoring, tracabilite, conformite). C'est le positionnement a tenir.

A surveiller : l'auto-generation de skills pourrait inspirer une amelioration du processus de capitalisation des learnings (step 10). Aujourd'hui les learnings sont rediges manuellement dans le REX — un mecanisme de suggestion automatique de skills a partir des corrections de gate serait une evolution interessante.