Ton site est-il prêt pour les agents IA ?
Analyse n’importe quelle URL contre les protocoles de découverte et d’accès que les agents IA cherchent vraiment en 2026 — robots.txt, Content Signals, Link headers, catalogue d’API, carte MCP, OAuth, et plus. Vois ce qui passe, ce qui échoue, et exactement quoi ajouter ensuite.
Sois trouvable par les agents
Les agents IA (plugins ChatGPT, tool use Claude, MCP Cursor) sondent les endpoints well-known avant de crawler tes pages. Si les tiens manquent, ils passent au concurrent qui les a.
Passe l’échelle des niveaux
Bot-Aware → Agent-Readable → Agent-Friendly → Agent-Native. Chaque étape débloque plus de découverte et d’intégration par agents. Le scan te dit exactement quelle vérification bloque ton prochain niveau.
Questions sur la préparation aux agents.
Qu’est-ce qu’on vérifie ?
Plusieurs vérifications dans 5 catégories — Découvrabilité (robots.txt, sitemap, Link headers), Accessibilité du contenu (négociation Markdown), Contrôle d’accès des bots (règles IA dans robots.txt, Content Signals, Web Bot Auth), Découverte d’agents (carte de serveur MCP, Agent Skills, WebMCP, catalogue d’API, métadonnées OAuth), et Commerce d’agents (x402, MPP, UCP, ACP).
Comment améliorer mon score le plus rapidement ?
Commence par les gains faciles : un robots.txt valide avec des règles explicites pour les bots IA et une directive Sitemap, plus un Link header sur la page d’accueil qui pointe vers /.well-known/api-catalog et ta documentation. Deux fichiers et une ligne d’en-tête suffisent généralement pour passer le niveau 2.
Ai-je besoin d’une carte de serveur MCP si je n’ai pas de serveur MCP ?
Non. Cette vérification ne compte que si tu exposes effectivement des outils aux agents IA (Claude, Cursor, plugins ChatGPT). Sinon, laisse-la en échec — elle ne te pénalise pas, elle indique simplement « pas de surface MCP ici ».
Devrais-je bloquer GPTBot, ClaudeBot, PerplexityBot dans robots.txt ?
Pour la plupart des sites marketing : non. Ces crawlers nourrissent les modèles qui répondent aux questions sur ta catégorie — les bloquer = devenir invisible dans la recherche IA. Ajoute plutôt des règles Content-Signal (`ai-train=yes, ai-input=yes, search=yes`) pour déclarer ton consentement sans perdre en visibilité.
Mon site a-t-il besoin d’une spec OpenAPI ?
Seulement si tu publies une API publique et veux que les agents génèrent des clients automatiquement. La vérification du catalogue d’API passe avec juste `service-doc` (un lien vers ta doc humaine) et `status` (un endpoint de santé) — pas besoin d’OpenAPI. Tu l’ajoutes plus tard quand un vrai consommateur en a besoin.
Le scan affecte-t-il mon SEO ou mon ranking ?
Non. On fait un GET sur quelques fichiers publics (/robots.txt, /sitemap.xml, /.well-known/*, /api-docs) avec un User-Agent neutre. On ne crawle pas le reste du site, on ne stocke pas de cookies, on n’envoie rien à Google.
À quelle fréquence dois-je re-scanner ?
Après chaque changement significatif : édition de robots.txt, nouveau fichier .well-known, mise à jour d’en-tête. Le scan est frais à chaque exécution — pas de cache de notre côté — donc tu vérifies un correctif en quelques secondes.
Où puis-je en apprendre plus ?
Cloudflare publie un guide complet sur la création de sites agent-ready : docs.cloudflare.com/fundamentals/reference/markdown-for-agents/. Chaque vérification échouée dans le résultat du scan renvoie aussi vers la RFC ou la spec correspondante.