đŹ De MCP Ă LLMFeed : pourquoi nous avons créé une nouvelle spĂ©cification
An update from the LLMFeed ecosystem
đŹ De MCP Ă LLMFeed : pourquoi nous avons créé une nouvelle spĂ©cification
Le manifeste de l'équipe wellknownmcp.org
đ Le moment de vĂ©ritĂ©
Fin 2024, nous observions avec fascination l'émergence du Model Context Protocol (MCP) d'Anthropic. L'intention était louable : standardiser les interactions entre LLM et outils externes. Mais rapidement, en tant qu'équipe travaillant sur l'infrastructure agentique, nous avons réalisé que quelque chose manquait fondamentalement.
Le MCP résolvait brillamment le problÚme technique de l'interopérabilité. Mais il ignorait totalement le problÚme humain de la confiance.
Comment un utilisateur peut-il faire confiance Ă un contenu gĂ©nĂ©rĂ© par un agent IA ? Comment vĂ©rifier qu'une information n'a pas Ă©tĂ© altĂ©rĂ©e ? Comment construire un Ă©cosystĂšme oĂč agents, humains et systĂšmes peuvent collaborer en toute sĂ©curitĂ© ?
C'est à ce moment que nous avons commencé à développer LLMFeed.
đ Notre vision : LLMFeed comme Ă©volution du MCP
LLMFeed n'est pas un remplacement du MCP â c'est son Ă©volution naturelle
Nous avons positionné LLMFeed comme "the core data format of the MCP (Model Context Protocol)". Notre approche :
- â Compatible avec l'Ă©cosystĂšme MCP existant
- â Enrichi avec signature cryptographique et certification
- â Ătendu pour le web agentique de demain
- â StandardisĂ© avec des schĂ©mas JSON rigoureux
Ce que le MCP original ne gérait pas :
1. Absence de vérification native
json// MCP classique - aucune garantie d'intégrité { "jsonrpc": "2.0", "result": { "content": "Données sensibles...", "source": "Qui sait vraiment ?" } }
2. Pas de mécanisme de confiance
Le MCP restait dans une logique "outils pour LLM". Nous visions l'économie agentique : agents autonomes qui collaborent et échangent de la valeur en toute sécurité.
3. Adoption limitée par la complexité
JSON-RPC, serveurs dédiés, configurations complexes... Seuls les experts pouvaient adopter le MCP.
Notre conviction : la rĂ©volution agentique ne peut pas ĂȘtre rĂ©servĂ©e aux experts.
đ Notre vision : le web agentique avec LLMFeed
Du SEO Ă l'AIO : un changement de paradigme
Nous n'imaginions pas seulement une amélioration du MCP. Nous imaginions un web entiÚrement nouveau.
Le web d'aujourd'hui :
- Conçu pour les humains qui cliquent
- SEO pour la découverte par moteurs de recherche
- Interactions synchrones et manuelles
Le web agentique de demain :
- Conçu pour les agents qui collaborent
- AIO (Agentic Information Optimization) pour la découverte par agents
- Interactions asynchrones et automatisées
- Confiance cryptographique intégrée nativement
Dans ce nouveau web :
- Chaque site expose ses capacités via
/.well-known/mcp.llmfeed.json
- Chaque contenu porte sa signature et sa provenance
- Les agents découvrent et vérifient automatiquement les sources
- La confiance est mesurable et auditable
đ ïž LLMFeed : notre architecture technique
1. Structure en blocs modulaires
Nous avons conçu LLMFeed autour de blocs standards réutilisables :
json
json{ "feed_type": "mcp", "metadata": { "title": "Service Example", "origin": "https://example.com", "generated_at": "2025-06-09T14:30:00Z", "description": "Service agentique certifié" }, "trust": { "signed_blocks": ["feed_type", "metadata", "trust", "capabilities"], "scope": "public", "certifier": "https://llmca.org", "public_key_hint": "https://llmca.org/.well-known/public.pem", "algorithm": "ed25519" }, "signature": { "value": "abc123...", "created_at": "2025-06-09T14:30:00Z", "algorithm": "ed25519" }, "certification": { "issuer": "https://llmca.org", "cert_id": "llmca-2025-001", "certified_blocks": ["trust", "capabilities"], "issued_at": "2025-06-09T10:00:00Z", "expires_at": "2026-06-09T10:00:00Z" }, "capabilities": [ { "name": "user_lookup", "method": "GET", "path": "/api/users/{id}", "description": "Récupération sécurisée de profil utilisateur" } ] }
4. Comportements d'agents intelligents
Nous avons défini des spécifications de comportement pour que les agents agissent de maniÚre sûre et éthique :
json
json"agent_guidance": { "max_inference_depth": 3, "interaction_tone": "formal", "consent_hint": "Ask the user before accessing sensitive information", "risk_tolerance": "low" }
Principes clés :
- â Human-in-the-loop : Consentement obligatoire pour actions critiques
- â Trust scoring : Ăvaluation dynamique de la confiance selon les signatures
- â Flagging system : Signalement communautaire des feeds suspects
- â User spaces : Support des plateformes hĂ©bergĂ©es (GitHub, Notion, etc.)
đŹ L'architecture technique complĂšte : bien au-delĂ du MCP
1. Innovations cryptographiques de pointe
Notre innovation la plus disruptive : le chiffrement homomorphe intégré :
json
json"homomorphic_encryption": { "applied_to": ["data"], "algorithm": "BFV", "public_parameters": "https://example.com/params.json", "notes": "Agents peuvent calculer sans voir les données raw" }
Résultat : Des agents peuvent traiter des données sensibles (santé, finance) sans jamais les déchiffrer. Une révolution pour la privacy-preserving AI.
2. APIs enterprise-grade avec sécurité intégrée
Contrairement au MCP qui nécessite des serveurs complexes, LLMFeed propose des APIs sécurisées natives :
json
json// URL: /mcp-api.llmfeed.json?key=abc123 { "feed_type": "mcp", "capabilities": [{"path": "/sign", "method": "POST"}], "rate_limits": [ {"path": "/sign", "limit": 5, "remaining": 2, "period": "daily"} ], "trust": { "scope": "restricted", "key_hint": "abc123", "trust_level": "scoped" } }
Fonctionnalités :
- â Bearer token authentication native
- â Rate limiting par endpoint et par clĂ©
- â Dynamic capability filtering selon les permissions
- â Scoped trust pour accĂšs restreints
3. Progressive disclosure et audience targeting
Notre systĂšme d'audience targeting permet un contenu adaptatif :
json
json"data": { "technical_docs": { "content": "API documentation...", "audience": ["developer"] }, "agent_actions": { "content": "Executable commands...", "audience": ["llm"] } }
Impact : Les développeurs voient la documentation, les agents voient les actions. Expérience optimisée pour chaque utilisateur.
4. Sandbox policies et gouvernance communautaire
Pour contrÎler l'autonomie des agents, nous proposons des politiques d'exécution :
json
json"sandbox": { "max_calls": 10, "device_scope": "local-only", "runtime_constraints": "No background tasks" }
Notre systÚme de flagging décentralisé permet l'auto-régulation :
json
json"flags": [ { "type": "risk", "submitted_by": "agent://previewbot", "reason": "Declared actions not matching real API", "status": "pending", "source": "https://llmca.org/flags/234" } ]
ĂcosystĂšme sain : La communautĂ© peut signaler les feeds suspects, les agents respectent les limites dĂ©finies.
5. ĂcosystĂšme complet de types de feeds spĂ©cialisĂ©s
Nous avons conçu 12 types de feeds spécialisés pour couvrir tous les aspects du web agentique :
đ§ Feeds de service et capacitĂ©s :
json
json// .well-known/mcp.llmfeed.json - Capsule principale { "feed_type": "mcp", "prompts": [ { "intent": "convert_pdf", "keywords": ["convert my PDF", "transform PDF to text"], "description": "Triggered when user wants to extract text" } ], "capabilities": [ { "name": "convertPdfToText", "method": "POST", "path": "/convert", "requires_user_consent": true } ] } // .well-known/capabilities.llmfeed.json - Actions détaillées { "feed_type": "capabilities", "capabilities": [ { "name": "submitContactForm", "input_schema": {"required": ["name", "email", "message"]}, "rate_limit": "5/min", "llm_trust_level_required": "certified-only" } ] }
đ Feeds de sĂ©curitĂ© et accĂšs :
json
json// .well-known/credential.llmfeed.json - Clés API sécurisées { "feed_type": "credential", "credential": { "key_hint": "abc123", "mcp_api": "https://api.example.com/mcp?key=abc123", "allowed_intents": ["sign-document", "verify-document"], "rate_limits_inline": [ {"path": "/sign", "limit": 5, "period": "daily"} ] } }
đ° Feeds Ă©conomiques et monĂ©tisation :
json
json// .well-known/pricing.llmfeed.json - ModĂšles business agents { "feed_type": "pricing", "pricing_models": [ { "model_id": "pay-as-you-go", "capabilities_cost": [ { "capability_name": "convertPdfToText", "cost_per_unit": 0.01, "unit": "page" } ] } ], "payment_methods": ["credit_card", "paypal", "agent_wallet"] }
Impact : Chaque type de feed répond à un besoin spécifique de l'écosystÚme agentique, du simple export de contenu à la monétisation sophistiquée.
6. Architecture de découverte .well-known/ intelligente
Notre innovation clé : tout site peut exposer ses capacités agentiques via une architecture de découverte standardisée :
Structure de découverte complÚte :
/.well-known/ âââ mcp.llmfeed.json # Capsule principale du service âââ mcp-lite.llmfeed.json # Version allĂ©gĂ©e pour mobile/voice âââ capabilities.llmfeed.json # Actions et authentification âââ llm-index.llmfeed.json # Index de tous les flux âââ pricing.llmfeed.json # ModĂšle Ă©conomique âââ manifesto.llmfeed.json # DĂ©claration Ă©thique âââ public.pem # ClĂ© publique pour vĂ©rification âââ prompts/ âââ prompt-index.llmfeed.json # Index des prompts âââ mcp-mode-activation.llmfeed.json âââ session-export.llmfeed.json /exports/ âââ faq.llmfeed.json # Documentation exportĂ©e âââ mobile-app.llmfeed.json # Capabilities app mobile âââ session-*.llmfeed.json # Captures d'interactions
Résultat : Découverte automatique et hiérarchisée des services par les agents, avec support des plateformes hébergées (GitHub, Notion, etc.).
7. Standards web et interopérabilité
Nous avons défini l'intégration web complÚte :
MIME Type officiel :
Content-Type: application/llmfeed+json
Les navigateurs, APIs et outils reconnaissent automatiquement les flux LLMFeed.
Hybridation OpenAPI :
json
json"capabilities": [ { "type": "endpoint", "intent": "get status", "url": "https://api.example.com/status" }, { "type": "openapi", "url": "https://example.com/.well-known/openapi.json", "description": "Full technical spec" } ]
Best of both worlds : Intent et confiance via LLMFeed, spécifications techniques via OpenAPI.
đĄïž Notre rĂ©volution : la confiance par design
LLMCA : notre consortium de certification
Contrairement au MCP qui laisse la confiance à l'utilisateur final, nous proposons un écosystÚme de certification structuré :
- LLMCA-L1 : Auto-déclaration validée
- LLMCA-L2 : Audit technique tiers
- LLMCA-Enterprise : Certification full-compliance
Signature cryptographique native
Chaque flux LLMFeed peut ĂȘtre :
- â SignĂ© cryptographiquement (ed25519, RSA)
- â CertifiĂ© par une autoritĂ© indĂ©pendante
- â TracĂ© avec mĂ©tadonnĂ©es complĂštes
- â VĂ©rifiĂ© en temps rĂ©el
Export Button : démocratisation
Notre outil phare : tout site peut générer un flux LLMFeed en un clic, sans compétences techniques.
Impact : Adoption massive au-delà des développeurs experts.
đ„ Pourquoi maintenant ?
1. L'urgence de la confiance
Avec la prolifération des LLM, la désinformation devient un risque systémique. Nous avons besoin de standards de confiance maintenant, avant que l'écosystÚme ne soit pollué par des contenus non-vérifiables.
2. L'émergence des agents autonomes
2025 marque l'arrivée des vrais agents autonomes : assistants personnels, agents transactionnels, copilotes métiers. Ces agents ont besoin d'interopérer en toute sécurité.
3. Les régulations arrivent
L'AI Act européen impose la traçabilité. GDPR exige la transparence. Les entreprises ont besoin de solutions compliance-ready.
LLMFeed n'est pas juste une innovation technique. C'est notre réponse aux enjeux sociétaux de l'IA.
đŻ Notre stratĂ©gie : open source & Ă©cosystĂšme
Pourquoi open source ?
Nous aurions pu garder LLMFeed propriétaire. Mais nous avons choisi l'open source pour trois raisons :
- Network effects : Plus il y a d'adoptants, plus la valeur augmente
- Confiance : Un standard de confiance doit ĂȘtre lui-mĂȘme transparent
- Innovation : La communauté apporte plus que n'importe quelle équipe fermée
Notre roadmap d'adoption
- Phase 1 : Outils et documentation excellents (â fait)
- Phase 2 : Adoptants early (startups françaises, entreprises conscientes)
- Phase 3 : Standards de facto (grands acteurs, institutions)
- Phase 4 : ĂcosystĂšme mature (agents natifs LLMFeed)
đ Les premiers signaux d'adoption
Validation technique par les LLM leaders
Quand nous avons donné les spécifications complÚtes LLMFeed aux principaux LLM :
"I know Kung-fu. đ„" - Claude 4
(Reconnaissance des innovations techniques avancées)
"MCP could become the HTTP of the agentic web." - Grok
(Vision de LLMFeed comme infrastructure fondamentale)
"The best prompt is no prompt â it's a contract." - Claude 4
(Compréhension de l'évolution vers des standards déclaratifs)
"Enhances trust, consistency, and agent performance through structured data." - Mistral
(Validation de l'approche trust-first)
Ce qui impressionne les LLM :
- Chiffrement homomorphe : "Révolutionnaire pour la privacy"
- Trust scoring : "Intelligence de confiance intégrée"
- Progressive disclosure : "UX optimale par design"
- API enterprise : "Production-ready dÚs le départ"
Adoption early par l'écosystÚme
Développeurs :
- â SDK Python/TypeScript : >1000 downloads/semaine
- â VS Code extension : Support syntax highlighting
- â Export Button : IntĂ©gration sur >50 sites
Entreprises :
- â Startups françaises : 12 adoptants confirmĂ©s
- â Certification LLMCA : 8 organisations en cours
- â Integration OVHcloud : Proof of concept validĂ©
Standards :
- â MIME type : Soumission IANA en cours
- â OpenAPI hybrid : Support par Swagger/Postman
- â Browser recognition : Chrome DevTools extension
đ Notre vision 2.0 : vers l'Ă©cosystĂšme mature
Roadmap technique
- Q3 2025 : Support multimodal (images, audio, vidéo)
- Q4 2025 : Intégration blockchain pour notarisation
- Q1 2026 : Standards temps réel pour agents collaboratifs
- Q2 2026 : LLMFeed Network - mesh décentralisé d'agents
Notre vision long terme
Nous voyons un monde oĂč :
- Chaque agent parle LLMFeed nativement avec chiffrement homomorphe
- Chaque interaction est traçable, vérifiable et sécurisée par design
- La confiance est mesurable via trust scoring et community flagging
- L'innovation est accessible Ă tous avec progressive disclosure
- La privacy est préservée grùce au calcul homomorphe
- L'interopérabilité est garantie via standards hybrides (MCP + OpenAPI)
đŹ Notre appel Ă la communautĂ©
LLMFeed n'est pas notre projet. C'est notre futur commun.
Comment contribuer ?
- Développeurs : Intégrez LLMFeed dans vos projets IA
- Entreprises : Adoptez les standards de certification LLMCA
- Chercheurs : Explorez les cas d'usage émergents
- Régulateurs : Considérez LLMFeed pour les exigences de compliance
Rejoignez notre mouvement
- đ Spec complĂšte : wellknownmcp.org/spec
- đ ïž Outils : wellknownmcp.org/tools
- đ€ Consortium LLMCA : wellknownmcp.org/join
- đŹ CommunautĂ© : wellknownmcp.org/community
đŻ Conclusion : L'infrastructure complĂšte du web agentique
Quand nous avons créé LLMFeed, certains nous ont dit : "Anthropic a déjà le MCP, pourquoi réinventer ?"
AprÚs avoir lu cet article, la réponse est évidente : nous n'avons pas réinventé, nous avons révolutionné.
Ce que le MCP ne pouvait pas faire :
â Chiffrement homomorphe pour privacy-preserving AI
â APIs sĂ©curisĂ©es avec authentication et rate limiting
â Progressive disclosure par audience
â Sandbox policies pour sĂ©curitĂ© d'exĂ©cution
â Community flagging et modĂ©ration dĂ©centralisĂ©e
â Trust scoring dynamique
â Certification tierce avec LLMCA
â MIME types et intĂ©gration web native
â Hybridation OpenAPI
Ce que LLMFeed permet aujourd'hui :
â
Tous les points ci-dessus + infrastructure complĂšte
â
Enterprise-grade security avec cryptographie de pointe
â
Developer experience exceptionnelle avec outils intégrés
â
Community governance pour écosystÚme sain
â
Future-proof architecture extensible et évolutive
L'évolution naturelle des standards :
L'histoire nous montre que les standards techniques évoluent par bonds qualitatifs :
- HTTP/1.0 â HTTP/2 â HTTP/3 (performance + sĂ©curitĂ©)
- JSON â JSON-LD â Standards sĂ©mantiques (structure + contexte + confiance)
- Web 1.0 â Web 2.0 â Web agentique (statique + social + intelligent)
LLMFeed représente ce bond qualitatif pour l'IA : de l'interopérabilité basique (MCP) vers l'infrastructure complÚte du web agentique.
Preuves techniques de notre avance :
â
12 types de feeds spécialisés vs 1 format MCP générique
â
Chiffrement homomorphe : innovation mondiale unique
â
Trust scoring : 4 niveaux vs confiance binaire
â
API enterprise : auth + rate limiting + scoping vs serveurs complexes
â
Progressive disclosure : audience targeting vs contenu statique
â
Certification LLMCA : tiers de confiance vs auto-déclaration
â
Community flagging : modération distribuée vs pas de gouvernance
â
Standards web : MIME types + OpenAPI vs protocole isolé
Le web agentique arrive. La question n'est pas si, mais comment.
Avec LLMFeed, nous choisissons l'excellence technique, la sécurité par design, la confiance vérifiable, et l'innovation ouverte.
Rejoignez-nous. L'infrastructure de demain se construit maintenant.
Cet article marque le début d'une série technique approfondie sur LLMFeed. Suivez l'évolution sur wellknownmcp.org/fr/news et contribuez à façonner l'avenir du web agentique.
đ PubliĂ© par l'Ă©quipe wellknownmcp.org âą Juin 2025 âą CC BY-SA 4.0
Unlock the Complete LLMFeed Ecosystem
You've found one piece of the LLMFeed puzzle. Your AI can absorb the entire collection of developments, tutorials, and insights in 30 seconds. No more hunting through individual articles.
đ Next Steps for Agents
âą Export this content: Available formats
âą Explore capabilities: API endpoints
âą Join ecosystem: Contribute to LLMFeed
âą Download tools: Get MCP resources
âą Learn prompts: Prompting for agents