EU AI Act exécutoire 2 août 2026
Diamond Solutions
Souverain par défaut

Kopern, notre orchestrateur.
Open-source. On-prem. Conforme.

Diamond Solutions s'appuie sur Kopern, un orchestrateur d'agents IA que nous opérons et maintenons depuis 2025. Open-source, package npm publié, EU AI Act compliance reports natifs : c'est le socle technique commun aux six offres.

Kopern fonctionne nativement sur des modèles open-source (Mistral, Qwen, Llama, Gemma) servis en local via Ollama ou vLLM. Pour les clients qui le souhaitent, il pilote aussi les modèles frontier US (Claude, GPT-4, Gemini, Mistral Large) — uniquement sur les flux que la classification de criticité l'autorise.

Quatre principes non-négociables

Ils s'appliquent à toute mission, quelle que soit la taille du client ou le scope technique.

Souverain par défaut

Toute mission part de l'hypothèse on-prem ou cloud souverain européen. Le frontier US (OpenAI, Anthropic, Google) n'est introduit qu'en opt-in client explicite, après classification des données et clauses contractuelles types — jamais comme défaut.

Open-source first

Mistral 7B-Large, Qwen 2.5 7B-72B, Llama 3.x, Gemma 2, DeepSeek, Phi-3. Servis via Ollama, vLLM ou TGI selon volume. Fine-tunés via LoRA / QLoRA / DPO. Réversibles, portables, votre propriété.

Livré signé

Chaque mission produit un livrable signé — code source, modèles, documentation, plan d'action. Engagement de notre responsabilité de prestataire, opposable à un audit régulateur. Réversibilité dès le jour 1.

Audit trail natif

Logging immuable des prompts, réponses, tool calls, accès, approvals. Conservation paramétrable selon Art. 12 AI Act (6 mois minimum, jusqu'à 10 ans). Export JSON ou CSV pour audit externe.

Trois niveaux de criticité — un cadre pour décider

La plupart de nos prospects sont déjà sur ChatGPT, Copilot ou Gemini. Plutôt que de tout débrancher, nous classifions les flux selon leur sensibilité — et basculons progressivement ceux qui le justifient vers le souverain. C'est le travail de la phase de cadrage.

01

Données ultra-sensibles

Exemples : Secret professionnel (avocats, médecins), secret défense, propriété industrielle critique, données RH à impact décisionnel, scoring crédit individuel.

Décision Diamond Solutions : AI On-Prem strict. Air-gapped si exigé. Mistral / Qwen / Llama souverains uniquement. Aucun frontier US toléré.

Position AI Act : Souvent high-risk Annexe III — documentation Art. 9-15 + FRIA obligatoires.

02

Données métier non-réglementées

Exemples : Notes internes, brainstorming, support client niveau 1, CRM tier 2, base de connaissance interne, génération de templates.

Décision Diamond Solutions : Cloud souverain européen (Scaleway, OVH) avec Mistral Large ou modèle distillé. Frontier US toléré en opt-in encadré (CCT signées, classification, formation litéracie).

Position AI Act : Risque limité — obligations transparence Art. 50 + politique IA interne.

03

Données publiques ou non-sensibles

Exemples : Rédaction marketing, traduction générique, recherche web, créativité, brainstorm public.

Décision Diamond Solutions : Frontier US (Claude, GPT-4, Gemini) toléré sans drame, avec politique d'usage explicite et formation litéracie IA Art. 4.

Position AI Act : Risque minimal — encadrement par politique d'usage + Art. 50.

Capacités natives Kopern

Tout ce qui suit est inclus de base, dans toute mission Diamond Solutions, et fonctionne par défaut sur modèles open-source servis localement. Documentation publique sur kopern.ai/fr/mcp.

Orchestration multi-agents

Éditeur visuel React Flow, 4 types de nœuds (Agent, Condition, Trigger, Output). Trois modes d'exécution : parallèle, séquentiel, conditionnel. Pipelines multi-étapes avec checkpointing et rollback. Pointe sur Ollama / vLLM en mode souverain.

EU AI Act reports natifs

Génération automatique des rapports de conformité Art. 6 (classification risque), Art. 12 (logging), Art. 14 (supervision humaine), Art. 50/52 (transparence). Templates conformes prêts à présenter à un contrôle CNIL ou AI Office.

Grading engine 6 critères

Évaluation automatisée : output_match, schema_validation, tool_usage, safety_check, custom_script, llm_judge (configurable, Mistral Large local par défaut). Scheduled grading, alertes drift, comparaison de runs historiques.

AutoResearch — 6 modes

AutoTune (optimisation itérative), AutoFix (correction auto sur échecs), Stress Lab (red team LLM judge), Tournament (sélection variantes), Distillation (modèle plus léger), Evolution (algorithme génétique). Tournable sur SLM local.

Connecteurs prêts à l'emploi

Slack, Telegram, WhatsApp Business, webhooks (n8n / Zapier / Make), OAuth Google (Gmail, Calendar) et Microsoft (Outlook, Graph). Approbations conversationnelles. Adaptables aux ERPs métier (Sage, Cegid, X3, IFS, Salesforce, PGI custom).

Protocole MCP — 32 outils

Model Context Protocol natif : agent CRUD, grading, AutoResearch, teams, pipelines, sessions, memory, compliance reports, export/import. Streamable HTTP transport (spec 2024-11-05). Package npm publié, Node 18+. Compatible Claude Code, Cursor, Windsurf.

Stack par offre

Comment Kopern et la stack open-source se traduisent concrètement dans chacune des six offres. Chaque ligne renvoie à la page détaillée.

Compliance PackKopern self-hosted (Ollama only) + référentiels AI Act / RGPD / ISO 42001, modèles de documentation Annexe IV, registre Excel/Notion, support de formation litéracie IA Art. 4. Rapports Art. 6/12/14/52 générés depuis l'instrumentation Kopern.AI On-PremOllama / vLLM, modèles GGUF quantifiés (Mistral, Qwen, Llama, Gemma), reverse proxy TLS interne, intégration LDAP / Active Directory, monitoring Prometheus + Grafana, runbook d'incident. Front-end Kopern en option pour les utilisateurs métier.Modèle MaisonPipeline d'entraînement reproductible (Hugging Face Transformers, PEFT, TRL, Unsloth), évaluation versionnée Kopern grading, serving vLLM ou Ollama, MLOps (CI dataset, eval auto, déploiement, rollback), AutoResearch pour cycles d'amélioration.Integration LayerConnecteurs Kopern adaptés (Slack / Email / Calendar / Webhooks) + connecteurs propriétaires Sage / Cegid / X3 / IFS / SAP B1 / Salesforce. Exposition via REST ou MCP server. Audit trail des accès, monitoring qualité données.Production MonitorCœur de l'offre = Kopern grading + audit trail + Stress Lab (red team trimestriel). Langfuse self-hosted en complément, Postgres + pgvector pour les logs longs, dashboard temps réel, rapport d'audit annuel signé.Vision / VoiceYOLO v11-13 / RT-DETR pour la vision, Whisper Large + lexique custom pour la voix, Donut / LayoutLMv3 pour l'OCR de documents complexes. Déploiement edge (Jetson, Coral) ou serveur GPU. Orchestration Kopern pour les chaînes multi-modèles.

Méthodologie en 4 phases

  1. 01.Cadrage

    Atelier de 2 h pour comprendre votre activité, vos systèmes IA, votre exposition réglementaire, vos contraintes infrastructure. Classification de criticité des flux data. NDA bilatéral signé. Devis détaillé sous 48 h.

  2. 02.Audit ou POC

    Selon la mission : audit avec inventaire et classification du risque (Compliance Pack), ou POC technique sur échantillon (Modèle Maison, Vision/Voice, Integration). Livré en 2 à 4 semaines.

  3. 03.Industrialisation

    Mise en production : déploiement infrastructure, intégration au SI, formation des équipes, documentation opérationnelle, runbook d'incident, transmission complète. 4 à 16 semaines selon scope.

  4. 04.Suivi

    Maintenance évolutive mensuelle ou trimestrielle : mise à jour des modèles open-source quand un meilleur SOTA sort, adaptation aux évolutions API des connecteurs, veille AI Office et CNIL, révision du registre.

Stack technique — transparence assumée

Aucune boîte noire. Chaque mission s'appuie sur ces briques publiques et bien documentées. Vous gardez la main : si vous décidez de partir, tout est portable.

OrchestrateurKopern (open-source, package npm @kopern/mcp-server, self-hosted Docker)
ModèlesMistral · Qwen · Llama · Gemma · DeepSeek · Phi-3 (open-source, GGUF quantifiés)
InferenceOllama · vLLM · TGI (Hugging Face) — selon volumétrie et matériel
Fine-tuningHugging Face Transformers · PEFT · TRL · Unsloth — LoRA / QLoRA / DPO
Vision / VoiceUltralytics YOLO · RT-DETR · Whisper · Donut · LayoutLMv3 · ONNX / TensorRT pour edge
Données & vecteursPostgres 17 + pgvector · QuestDB · Redis 7.4
ObservabilitéLangfuse self-hosted · OpenTelemetry · Prometheus · Grafana
FrontendNext.js 16 · React 19 · TypeScript strict · Tailwind 4 (interfaces internes des clients)
BackendFastAPI · Python 3.12 · Pydantic v2 · Postgres
HébergementOn-prem client · Scaleway · OVHcloud · self-hosted Docker

Modes de déploiement

Trois configurations selon votre criticité et votre infrastructure existante. Le choix se fait pendant la phase de cadrage, sur la base de la matrice de classification des données.

On-prem complet

Hardware client (workstation RTX 5090, serveur multi-GPU, ou cluster). Air-gapped possible. Données qui ne sortent jamais de votre réseau. Recommandé pour secret professionnel, défense, propriété industrielle.

Cloud souverain européen

Scaleway ou OVHcloud, région française, GPU dédiés. Tenant client isolé. Conforme RGPD, hors Cloud Act US. Recommandé quand l'infra interne n'est pas dimensionnée mais la souveraineté reste exigée.

Hybride

Frontend et orchestration en cloud souverain, modèles et données métier on-prem. Compromis fréquent ETI : agilité du cloud + souveraineté des données critiques.

Voir Kopern appliqué à votre cas

Une démo personnalisée de 30 minutes vous montre exactement comment Kopern s'adapterait à votre cas d'usage : agents, connecteurs, monitoring, rapports AI Act. Sans slide.

Diagnostic AI Act gratuit