Nous déployons et opérationnalisons l'IA. Nous ne fabriquons pas de modèles. Pour les organisations dont les données ne peuvent pas — ou ne doivent pas — partir aux États-Unis.
Quatre territoires de problèmes — ils se chevauchent, c'est normal. La Discovery tranche.
Un fragment de configuration RAG — celle qu'on déploie en Standard Lite quand un client a une seule source de connaissance interne (un Notion, un Google Drive, un Confluence).
export const ragConfig = {
embedder: { provider: "mistral", model: "mistral-embed" },
vectorStore: { provider: "qdrant", collection: "client-kb" },
retrieval: { topK: 6, scoreThreshold: 0.72, hybrid: true },
generation: {
provider: "mistral",
model: "mistral-small-3.2",
grounded: true, // pas de réponse hors contexte
abstain: "Je ne sais pas",
},
guards: {
pii: "redact", // emails, tels, IBAN masqués
moderation: "fr-strict",
citations: "always", // chaque fragment retourne sa source
},
};Pour un Employé IA productisé avec un tooling standard. Conversation-only à ce stade — buy-flow ouvre post-Milestone 1.
RAG mono-source, persona custom, intégration profonde dans un système métier.
Plusieurs agents qui collaborent, plusieurs sources de données, plusieurs systèmes en aval.
Sur devis pour l'enveloppe matériel. 2 engagements actifs maximum à un moment donné — par choix, pour la qualité de livraison.
Le coût de la Discovery est crédité sur la suite si on continue ensemble.
Cas simple, périmètre clair — on cadre en 30 minutes.
Audit + use-case map + sovereignty assessment + memo + build-quote. 2 semaines.
Discovery étendue avec mapping réglementaire complet et matrice vendeurs.
On produit la documentation de déploiement adaptée à votre DPO ou avocat IT. On ne signe pas de promesses AI Act, RGPD, HDS sur notre seule entête — on travaille en partenariat avec un cabinet d'avocats IT pour les engagements en secteurs régulés.
Beaucoup de nos clients Foundations n'ont pas besoin de Systèmes — et c'est bien. La passerelle existe quand vous en avez besoin, jamais avant.