Kopern, notre orchestrateur.
Open-source. On-prem. Conforme.
Diamond Solutions s'appuie sur Kopern, un orchestrateur d'agents IA que nous opérons et maintenons depuis 2025. Open-source, package npm publié, EU AI Act compliance reports natifs : c'est le socle technique commun aux six offres.
Kopern fonctionne nativement sur des modèles open-source (Mistral, Qwen, Llama, Gemma) servis en local via Ollama ou vLLM. Pour les clients qui le souhaitent, il pilote aussi les modèles frontier US (Claude, GPT-4, Gemini, Mistral Large) — uniquement sur les flux que la classification de criticité l'autorise.
Quatre principes non-négociables
Ils s'appliquent à toute mission, quelle que soit la taille du client ou le scope technique.
Souverain par défaut
Toute mission part de l'hypothèse on-prem ou cloud souverain européen. Le frontier US (OpenAI, Anthropic, Google) n'est introduit qu'en opt-in client explicite, après classification des données et clauses contractuelles types — jamais comme défaut.
Open-source first
Mistral 7B-Large, Qwen 2.5 7B-72B, Llama 3.x, Gemma 2, DeepSeek, Phi-3. Servis via Ollama, vLLM ou TGI selon volume. Fine-tunés via LoRA / QLoRA / DPO. Réversibles, portables, votre propriété.
Livré signé
Chaque mission produit un livrable signé — code source, modèles, documentation, plan d'action. Engagement de notre responsabilité de prestataire, opposable à un audit régulateur. Réversibilité dès le jour 1.
Audit trail natif
Logging immuable des prompts, réponses, tool calls, accès, approvals. Conservation paramétrable selon Art. 12 AI Act (6 mois minimum, jusqu'à 10 ans). Export JSON ou CSV pour audit externe.
Trois niveaux de criticité — un cadre pour décider
La plupart de nos prospects sont déjà sur ChatGPT, Copilot ou Gemini. Plutôt que de tout débrancher, nous classifions les flux selon leur sensibilité — et basculons progressivement ceux qui le justifient vers le souverain. C'est le travail de la phase de cadrage.
Données ultra-sensibles
Exemples : Secret professionnel (avocats, médecins), secret défense, propriété industrielle critique, données RH à impact décisionnel, scoring crédit individuel.
Décision Diamond Solutions : AI On-Prem strict. Air-gapped si exigé. Mistral / Qwen / Llama souverains uniquement. Aucun frontier US toléré.
Position AI Act : Souvent high-risk Annexe III — documentation Art. 9-15 + FRIA obligatoires.
Données métier non-réglementées
Exemples : Notes internes, brainstorming, support client niveau 1, CRM tier 2, base de connaissance interne, génération de templates.
Décision Diamond Solutions : Cloud souverain européen (Scaleway, OVH) avec Mistral Large ou modèle distillé. Frontier US toléré en opt-in encadré (CCT signées, classification, formation litéracie).
Position AI Act : Risque limité — obligations transparence Art. 50 + politique IA interne.
Données publiques ou non-sensibles
Exemples : Rédaction marketing, traduction générique, recherche web, créativité, brainstorm public.
Décision Diamond Solutions : Frontier US (Claude, GPT-4, Gemini) toléré sans drame, avec politique d'usage explicite et formation litéracie IA Art. 4.
Position AI Act : Risque minimal — encadrement par politique d'usage + Art. 50.
Capacités natives Kopern
Tout ce qui suit est inclus de base, dans toute mission Diamond Solutions, et fonctionne par défaut sur modèles open-source servis localement. Documentation publique sur kopern.ai/fr/mcp.
Orchestration multi-agents
Éditeur visuel React Flow, 4 types de nœuds (Agent, Condition, Trigger, Output). Trois modes d'exécution : parallèle, séquentiel, conditionnel. Pipelines multi-étapes avec checkpointing et rollback. Pointe sur Ollama / vLLM en mode souverain.
EU AI Act reports natifs
Génération automatique des rapports de conformité Art. 6 (classification risque), Art. 12 (logging), Art. 14 (supervision humaine), Art. 50/52 (transparence). Templates conformes prêts à présenter à un contrôle CNIL ou AI Office.
Grading engine 6 critères
Évaluation automatisée : output_match, schema_validation, tool_usage, safety_check, custom_script, llm_judge (configurable, Mistral Large local par défaut). Scheduled grading, alertes drift, comparaison de runs historiques.
AutoResearch — 6 modes
AutoTune (optimisation itérative), AutoFix (correction auto sur échecs), Stress Lab (red team LLM judge), Tournament (sélection variantes), Distillation (modèle plus léger), Evolution (algorithme génétique). Tournable sur SLM local.
Connecteurs prêts à l'emploi
Slack, Telegram, WhatsApp Business, webhooks (n8n / Zapier / Make), OAuth Google (Gmail, Calendar) et Microsoft (Outlook, Graph). Approbations conversationnelles. Adaptables aux ERPs métier (Sage, Cegid, X3, IFS, Salesforce, PGI custom).
Protocole MCP — 32 outils
Model Context Protocol natif : agent CRUD, grading, AutoResearch, teams, pipelines, sessions, memory, compliance reports, export/import. Streamable HTTP transport (spec 2024-11-05). Package npm publié, Node 18+. Compatible Claude Code, Cursor, Windsurf.
Stack par offre
Comment Kopern et la stack open-source se traduisent concrètement dans chacune des six offres. Chaque ligne renvoie à la page détaillée.
Méthodologie en 4 phases
01.Cadrage
Atelier de 2 h pour comprendre votre activité, vos systèmes IA, votre exposition réglementaire, vos contraintes infrastructure. Classification de criticité des flux data. NDA bilatéral signé. Devis détaillé sous 48 h.
02.Audit ou POC
Selon la mission : audit avec inventaire et classification du risque (Compliance Pack), ou POC technique sur échantillon (Modèle Maison, Vision/Voice, Integration). Livré en 2 à 4 semaines.
03.Industrialisation
Mise en production : déploiement infrastructure, intégration au SI, formation des équipes, documentation opérationnelle, runbook d'incident, transmission complète. 4 à 16 semaines selon scope.
04.Suivi
Maintenance évolutive mensuelle ou trimestrielle : mise à jour des modèles open-source quand un meilleur SOTA sort, adaptation aux évolutions API des connecteurs, veille AI Office et CNIL, révision du registre.
Stack technique — transparence assumée
Aucune boîte noire. Chaque mission s'appuie sur ces briques publiques et bien documentées. Vous gardez la main : si vous décidez de partir, tout est portable.
Modes de déploiement
Trois configurations selon votre criticité et votre infrastructure existante. Le choix se fait pendant la phase de cadrage, sur la base de la matrice de classification des données.
On-prem complet
Hardware client (workstation RTX 5090, serveur multi-GPU, ou cluster). Air-gapped possible. Données qui ne sortent jamais de votre réseau. Recommandé pour secret professionnel, défense, propriété industrielle.
Cloud souverain européen
Scaleway ou OVHcloud, région française, GPU dédiés. Tenant client isolé. Conforme RGPD, hors Cloud Act US. Recommandé quand l'infra interne n'est pas dimensionnée mais la souveraineté reste exigée.
Hybride
Frontend et orchestration en cloud souverain, modèles et données métier on-prem. Compromis fréquent ETI : agilité du cloud + souveraineté des données critiques.
Voir Kopern appliqué à votre cas
Une démo personnalisée de 30 minutes vous montre exactement comment Kopern s'adapterait à votre cas d'usage : agents, connecteurs, monitoring, rapports AI Act. Sans slide.