Aller au contenu

Claude Opus 4.7 + Claude Design — nouveau modele frontier et outil de prototypage visuel

Resume

Anthropic lance deux produits les 16-17 avril 2026 :

Claude Opus 4.7 (80K likes, 12.6M vues) : nouveau modele frontier. "Handles long-running tasks with more rigor, follows instructions more precisely, and verifies its own outputs before reporting back." Meme tarif qu'Opus 4.6 ($5/M input, $25/M output). Disponible API, Bedrock, Vertex, Foundry. Model ID : claude-opus-4-7.

Claude Design (136K likes, 48.3M vues) : outil de prototypage visuel propulse par Opus 4.7. "Make prototypes, slides, and one-pagers by talking to Claude." Research preview sur Pro, Max, Team, Enterprise.

Le skill claude-api dans Claude Code a ete mis a jour (@ClaudeDevs, 3.5K likes) : commande "migrate to Opus 4.7" qui met a jour les model names, prompts et effort settings automatiquement.

Analyse critique

Opus 4.7 — ce qui change concretement

Suivi d'instructions plus strict. Le blog Anthropic previent explicitement : "Users may need to readjust their prompts, as the previous model often interpreted instructions more flexibly." C'est un changement de comportement, pas juste une amelioration. Si tes prompts comptaient sur le fait qu'Opus 4.6 "interpretait librement", Opus 4.7 va prendre tes instructions au pied de la lettre. Potentiellement cassant si tes prompts sont ambigus.

Auto-verification des outputs. "Verifies its own outputs before reporting back." C'est le pattern evaluateur integre (cf. fiche harness planner/generator/evaluator du 2026-04-08). Opus 4.7 fait nativement ce qu'on faisait avec la separation auteur/evaluateur. La question est : est-ce que cette auto-verification est assez fiable pour remplacer un evaluateur externe (Art. II) ? Reponse probable : non, pour les memes raisons que le paper AutoReason (fiche 2026-04-15) — l'auto-evaluation a un biais de confirmation. Mais ca peut reduire les iterations de gate.

Vision amelioree (3.75 megapixels). Resolution 2576px cote long, 3x superieur aux versions precedentes. Pertinent pour Computer Use et pour l'analyse de screenshots d'interface. Potentiellement utile pour le TODO #9b (ObviousUI-QA / Playwright) — un evaluateur qui lit des screenshots d'app.

Nouveau niveau d'effort xhigh. Entre high et max. Controle plus fin du compromis raisonnement/latence. Notre config Codex utilise model_reasoning_effort = "xhigh" — ce niveau est maintenant officiel.

Tokenisation mise a jour. Le meme contenu d'entree peut generer 1.0 a 1.35x plus de tokens. Impact direct sur nos couts. A surveiller avec analyze-compounding.py sur les prochaines stories.

+13% sur benchmark code (93 taches). 4 taches resolues que ni Opus 4.6 ni Sonnet 4.6 ne pouvaient resoudre. Latence mediane reduite.

Securite cyber renforcee. Garde-fous automatises qui detectent et bloquent les demandes a risque. Les professionnels de la securite doivent passer par un Cyber Verification Program. Potentiellement pertinent pour notre item Shannon pentest (TODO #16) — si Opus 4.7 refuse les prompts de pentest offensif, il faudra le programme de verification.

Claude Design — prototypage visuel

Propulse par Opus 4.7 en tant que modele vision. Cree des prototypes, slides et one-pagers par conversation. Research preview.

Pour nous : pas de besoin immediat. ProbatioVault n'a pas de workflow de prototypage visuel. Potentiellement utile pour creer des slides de pitch ou de la doc visuelle, mais c'est marginal.

Pertinence ProbatioVault

Impact fort — Opus 4.7 est le moteur de notre workflow. Tout changement de comportement nous impacte directement.

Impact sur le workflow gouvernance

Notre workflow utilise Opus comme modele principal pour les steps 0, 4, 6a, 6b, 6c, 9. Le changement de comportement "follows instructions more precisely" a deux consequences :

  1. Gain potentiel : les agents step 6b qui suivent les code contracts et les invariants devraient etre plus rigoureux. Moins d'ecarts de type "l'agent a interprete librement l'invariant". Si confirme, le taux de Gate 8 GO v1 devrait augmenter.

  2. Risque : nos prompts dans templates/prompts/*.md ont ete calibres sur Opus 4.6 qui interpretait plus librement. Si Opus 4.7 prend les instructions au pied de la lettre, des ambiguites dans nos prompts qui etaient "compensees" par Opus 4.6 pourraient devenir des erreurs. A surveiller sur les 5 premieres stories post-upgrade.

Migration

Le skill claude-api avec "migrate to Opus 4.7" met a jour les model names. Mais notre workflow n'utilise pas claude-api — on utilise claude -p subprocess et le plugin Codex. La migration pour nous :

  1. Claude Code : mis a jour automatiquement (model par defaut dans claude.ai settings)
  2. claude -p subprocess : le model n'est pas specifie explicitement dans nos scripts (il utilise le default du compte). Si le default passe a Opus 4.7, on migre automatiquement.
  3. Codex plugin : config ~/.codex/config.toml avec model = "gpt-5.3-codex". Pas impacte par Opus 4.7.

Tokenisation +1.0-1.35x

Impact cout direct. Si les memes prompts generent 1.35x plus de tokens input, nos couts par story augmentent d'autant. A mesurer avec metrics.jsonl sur les prochaines stories. Si le gain en qualite (moins d'iterations de gate) compense le surcout en tokens, c'est neutre ou positif. Sinon, il faudra optimiser les prompts.

Auto-verification vs Art. II

Le fait qu'Opus 4.7 verifie ses propres outputs est une bonne nouvelle pour la qualite brute, mais ca ne remplace pas notre Art. II (validation croisee). L'auto-verification reduit les erreurs evidentes (bugs de syntaxe, inccoherences flagrantes), mais elle ne detecte pas les erreurs de logique metier ni les faux positifs subtils — exactement ce que le reviewer externe (ChatGPT via Codex) attrape. On garde la separation des pouvoirs.

Action recommandee

  1. Laisser la migration se faire naturellement via le default du compte Claude. Pas de changement force dans nos scripts.
  2. Surveiller les 5 premieres stories post-Opus 4.7 : comparer le taux de Gate GO v1 et le nombre d'iterations avec les stories pre-upgrade. Si degradation, auditer les prompts pour les ambiguites qui etaient compensees par Opus 4.6.
  3. Surveiller les couts via metrics.jsonl : si le surcout tokenisation 1.35x est significatif, envisager de compacter les prompts les plus longs.
  4. Ne pas migrer vers Claude Design pour l'instant — pas de besoin de prototypage visuel dans notre workflow.
  5. Tester le niveau xhigh sur les agents step 6b pour voir si le compromis raisonnement/latence est meilleur que high.