Un traitement bout en bout, sans compromis.
De l'ingestion documentaire aux réponses générées par IA, chaque étape est conçue pour la sécurité, la conformité et la transparence.
1 254 tests automatisés. 27 modules indépendants. 25 interfaces d'abstraction. 0 dépendance propriétaire dans le cœur certifié.
- 1
Ingestion de documents
Traitement par lot ou fichier unique. PDF, Excel, PPTX, HTML, Markdown avec extraction automatique de métadonnées.
- 2
Protection des données personnelles
Détection et masquage automatiques des données sensibles — noms, téléphones, comptes bancaires, emails — avant tout traitement IA.
- 3
Découpage de données
Découpage récursif et hiérarchique avec relations parent-enfant pour une recherche contextuelle précise.
- 4
Enrichissement sémantique
Indexation vectorielle et contextualisation des données pour une recherche qui comprend le sens, pas seulement les mots-clés.
- 5
Extraction de graphe de connaissances
Extraction automatique d'entités et de relations pour des requêtes complexes à travers l'ensemble de votre corpus documentaire.
- 6
Piste cryptographique SHA-256
Chaque opération du pipeline est signée cryptographiquement. Entièrement exportable pour les revues de conformité.
- 7
Auditabilité complète
Chaque ingestion, requête et réponse IA est journalisée et traçable. Prêt pour les audits internes et réglementaires.
- 8
Certification compileur Ferrocene
Cœur compatible avec le compilateur Rust certifié Ferrocene, qualifié pour les environnements critiques selon les normes IEC 62304 et ISO 26262.
- 9
Architecture hexagonale
25 ports abstraits (traits) découplent le domaine métier de toute dépendance externe ; les adaptateurs pointent vers le cœur, jamais l'inverse.
- 10
Rust natif, zéro runtime tiers
Pipeline compilé en binaire unique, sans Python, sans JVM. MSRV 1.75, toolchain stable.
- 11
Pipeline typé à blackboard
PipelineContext fortement typé — pas de HashMap. Les dépendances entre stages sont validées à l'assemblage, pas à l'exécution.
- 12
Mode hybride : Linear / Graph / Multi-query
Trois modes de retrieval sur le même moteur : RAG linéaire, GraphRAG (RDF triplestore Oxigraph) et fusion multi-requêtes par Reciprocal Rank Fusion.
- 13
GraphRAG intégré
Extraction d'entités, stockage RDF persistant et traversée multi-hop directement dans le pipeline d'ingestion.
- 14
Chaîne d'audit SHA-256
Chaque stage émet des événements StageStarted / StageCompleted / StageFailed formant une chaîne cryptographiquement vérifiable.
- 15
Filtre PII
Stage PiiStage insérable dans tout pipeline ; détection et masquage par regex avant indexation ou génération.
- 16
Parser natif — sans Python
HTML, Markdown, Excel, PPTX, PDF parsés en Rust pur via vectrant-adapter-parser-native. Aucun service externe de parsing.
- 17
Cache LRU décoratif
CachedEmbeddingModel et CachedLLMEngine wrappent n'importe quel adaptateur sans modifier le cœur.
- 18
Adapters cloud vendor-agnostic
OpenAI, Anthropic, Ollama, Cohere, pgvector enregistrés via feature flags ; clé API jamais stockée, uniquement le nom de la variable d'environnement.
- 19
Guardrails entrée / sortie
Ports InputGuardrail et OutputGuardrail pour détection d'injection de prompt, toxicité et violations de politique.
- 20
Contrôle d'accès documentaire
Port AccessControl (RBAC/ABAC) pour filtrer les résultats de retrieval par utilisateur ou rôle sans exposer le contenu restreint.
- 21
Évaluation qualité RAGAS-like
Port QualityEvaluator mesurant faithfulness, answer relevance, context precision et context recall en post-pipeline.
- 22
Métriques et hooks de lifecycle
PipelineHooks (callbacks par stage) et PipelineMetrics (timing agrégé) sans intrusion dans la logique métier.
- 23
27 crates workspace, 1 147+ tests
Couverture unitaire, intégration et e2e ; zéro unwrap() / panic!() / unsafe en code de production, enforced par test automatisé.