Vai al contenuto
Governance IA e indipendenza tecnologica — architettura Lexiane

Governance IA & Indipendenza Tecnologica | Lexiane

Governance IA per architettura: 25 interfacce di astrazione, audit SHA-256, metriche RAGAS, RBAC/ABAC. Pronto per EU AI Act e ISO 42001.

La governance dell’IA non si riduce a un insieme di politiche interne e dichiarazioni di conformità. Si fonda sulla capacità di un’organizzazione di dimostrare — ai propri dirigenti, ai revisori, ai regolatori — che i suoi sistemi di intelligenza artificiale sono sotto controllo: controllo delle decisioni che prendono, dei dati che elaborano, dei fornitori da cui dipendono, e degli errori che potrebbero commettere.

Questa capacità di dimostrazione non si improvvisa. Si costruisce nell’architettura del sistema fin dalle prime decisioni progettuali — oppure non si costruisce affatto.

Lexiane è progettato affinché ogni requisito di governance trovi una risposta nell’architettura piuttosto che nel processo. Questo documento illustra come.


Il contesto normativo: tre riferimenti che convergono

L’AI Act europeo — Regolamento (UE) 2024/1689

Pubblicato nella Gazzetta ufficiale dell’Unione europea il 12 luglio 2024 ed entrato in vigore il 1° agosto 2024, il regolamento sull’intelligenza artificiale stabilisce un quadro giuridico vincolante per i sistemi IA immessi sul mercato o messi in servizio nell’Unione europea.

Per i sistemi IA ad alto rischio — le cui obbligazioni sono pienamente applicabili al più tardi il 2 agosto 2026 — l’AI Act impone in particolare:

  • Articolo 9 — Un sistema di gestione dei rischi documentato, mantenuto per l’intero ciclo di vita del sistema
  • Articolo 10 — Requisiti di governance dei dati: qualità dei dati di addestramento e di esercizio, pertinenza, rappresentatività, assenza di bias identificati
  • Articolo 12 — La conservazione di registri di eventi che permettano di tracciare il funzionamento del sistema per un periodo definito, in particolare per i sistemi autonomi
  • Articolo 13 — La trasparenza del sistema nei confronti dei suoi utenti e delle autorità competenti
  • Articolo 17 — Un sistema di gestione della qualità che copra la progettazione, lo sviluppo, la validazione e la sorveglianza post-immissione sul mercato

Per le organizzazioni che deployano sistemi documentali basati sull’IA in settori classificati ad alto rischio dall’allegato III del regolamento — infrastrutture critiche, sanità, istruzione, occupazione, amministrazione della giustizia — questi obblighi non sono facoltativi.

ISO/IEC 42001:2023 — Sistema di gestione dell’IA

Pubblicata nel dicembre 2023, ISO/IEC 42001 è la prima norma internazionale che definisce i requisiti di un sistema di gestione dell’intelligenza artificiale (AIMS). Si rivolge alle organizzazioni che sviluppano o utilizzano sistemi IA, e si articola attorno agli stessi principi delle norme di gestione ISO 9001 o ISO 27001: politica, obiettivi, pianificazione, supporto, operazioni, valutazione delle prestazioni, miglioramento.

La norma impone in particolare la documentazione delle politiche di utilizzo dell’IA, l’identificazione e il trattamento dei rischi specifici ai sistemi IA, la tracciabilità delle decisioni del sistema, e la dimostrazione del controllo degli impatti organizzativi e sociali.

NIST AI RMF 1.0 — Quadro di gestione dei rischi IA

Pubblicato nel gennaio 2023 dal National Institute of Standards and Technology, il NIST AI Risk Management Framework organizza la gestione dei rischi IA attorno a quattro funzioni: Governare, Mappare, Misurare, Gestire. La funzione Governare è trasversale: condiziona l’efficacia delle altre tre stabilendo le politiche, i ruoli, le responsabilità e la cultura di governance necessari.


Questi tre riferimenti convergono verso gli stessi requisiti fondamentali: tracciabilità delle decisioni, controllo dei dati, indipendenza dai fornitori, meccanismi di controllo umano, e capacità di dimostrazione continua. È precisamente ciò che l’architettura di Lexiane rende possibile.


I cinque pilastri di governance che Lexiane affronta

1. Governance dei dati

La governance dei dati di un sistema RAG copre tre dimensioni distinte: la qualità dei dati ingeriti, la protezione dei dati sensibili, e la residenza dei dati.

Qualità e tracciabilità dei dati ingeriti

Ogni documento che entra in Lexiane è registrato nel MetadataStore persistente — un database SQLite con migrazione versionata. L’identificatore del documento, la sua data di ingestione, il suo formato, i suoi parametri di elaborazione e la sua collezione di appartenenza sono conservati. In qualsiasi momento è possibile ricostruire lo stato esatto della base documentale a una data specifica, identificare i documenti che hanno partecipato a una risposta, e tracciare ogni modifica apportata al corpus.

L’audit trail SHA-256 copre ogni fase dell’elaborazione: documento ingerito, frammenti creati, embedding calcolati, entità estratte, risposte generate. Ogni voce è firmata dall’hash della precedente. La catena è inviolabile: qualsiasi modifica retroattiva è matematicamente rilevabile. Questo registro costituisce la prova tecnica che i dati sono stati elaborati conformemente alle politiche definite — senza dipendere da una dichiarazione.

Protezione dei dati personali

Il filtro PII opera a monte della pipeline di acquisizione documentale, prima di qualsiasi vettorizzazione. I dati personali rilevati — indirizzi email, numeri di telefono, IBAN, codici fiscali, indirizzi IP — sono trattati secondo politiche configurabili per categoria: mascheramento tipizzato, eliminazione, hash. La politica applicata è registrata nell’audit trail.

Residenza e localizzazione dei dati

In configurazione air-gapped, Lexiane non dispone di alcuna interfaccia di rete attiva verso l’esterno. La localizzazione dei dati è una proprietà architetturale, non contrattuale. In configurazione ibrida o cloud, ogni adattatore esterno è un componente identificato, documentato, e sostituibile — la mappatura dei flussi di dati in uscita è precisa e verificabile.


2. Governance dei modelli e indipendenza dal fornitore

Uno dei rischi di governance più sottovalutati nei deployment IA è la dipendenza dal fornitore non documentata: un sistema costruito attorno a un unico modello linguistico o a un unico prestatore cloud, le cui condizioni d’uso, tariffe e politiche di deprecazione evolvono unilateralmente.

Lexiane affronta questo rischio per architettura. Venticinque interfacce di astrazione tipizzate definiscono l’insieme dei punti di contatto tra il nucleo e i componenti esterni. Ogni componente — modello linguistico, motore di embedding, base vettoriale, reranker, parser documentale — è connesso tramite una di queste interfacce. I fornitori attualmente supportati coprono l’intero spettro:

ComponenteFornitori supportati
LLMOpenAI · Anthropic · Ollama · Mistral.rs (locale)
EmbeddingOpenAI · Candle (locale) · Ollama
Vector storeQdrant · pgvector · SQLite (in-memory)
RerankerCohere
Ricerca sparseTantivy (BM25)
Parser documentaleRust nativo · Docling

La sostituzione di un componente non tocca né la pipeline, né la logica di business, né i dati già indicizzati. Si traduce in un cambio di configurazione. Non è una promessa di flessibilità — è una proprietà verificabile nell’architettura del sistema.

Governance del ciclo di vita dei modelli

Ogni risposta prodotta da Lexiane può includere metadati sul modello utilizzato per la generazione — versione, fornitore, parametri. Le statistiche di token consumati per fase sono accumulate nel contesto della pipeline (UsageStats) e accessibili dopo l’esecuzione. Questi dati permettono di monitorare l’evoluzione delle prestazioni e dei costi nel tempo, e di rilevare derive comportamentali legate a un aggiornamento del modello.


3. Governance operativa della pipeline

Un sistema IA in produzione deve poter essere osservato, strumentato e controllato. Lexiane espone tre meccanismi distinti a tale scopo.

Lifecycle hooks e osservabilità

Il sistema di hook del ciclo di vita (PipelineHooks) permette di strumentare ogni fase della pipeline senza modificarne il codice: on_stage_start, on_stage_complete, on_stage_error, on_pipeline_complete. Questi callback ricevono il nome della fase, il suo stato, e metadati strutturati. Permettono di alimentare in tempo reale un sistema di monitoring esterno — Prometheus, Datadog, OpenTelemetry, o qualsiasi sistema di supervisione interno — senza accoppiamento tra la pipeline e l’infrastruttura di osservazione.

Metriche di esecuzione

PipelineMetrics e StageMetrics forniscono dati di timing aggregati dopo ogni esecuzione: durata di ogni fase, durata totale della pipeline, fasi in errore. Queste metriche permettono di rilevare regressioni di performance, identificare colli di bottiglia, e tracciare l’evoluzione del comportamento del sistema nel tempo.

Controllo degli accessi documentale

La porta AccessControl implementa un meccanismo di filtraggio dei risultati di recupero basato sui diritti dell’utente richiedente. Supporta i modelli RBAC (controllo degli accessi basato sui ruoli) e ABAC (controllo degli accessi basato sugli attributi). I documenti recuperati sono filtrati prima della generazione: un utente non può ottenere una risposta costruita a partire da documenti a cui non ha accesso, anche se questi documenti esistono nella base vettoriale.

Questo meccanismo è particolarmente critico negli ambienti multi-utente dove dati di diversa sensibilità coesistono in uno stesso corpus: dati HR, dati finanziari, dati di progetto, dati classificati per livello.

Instradamento delle richieste per complessità

La porta QueryRouter classifica ogni richiesta in ingresso in base alla sua complessità e la instrada verso la modalità di pipeline adatta: pipeline lineare per le domande dirette, pipeline GraphRAG per le domande relazionali, ricerca semplice per i lookup diretti, o modalità agentiva per le analisi complesse che richiedono più iterazioni di recupero. Questo meccanismo di governance delle richieste permette di ottimizzare le risorse computazionali e di garantire che le richieste complesse ricevano un trattamento adeguato — senza lasciare questa scelta all’utente finale.


4. Governance della qualità e controllo umano

L’AI Act, negli articoli 14 e 26, insiste sulla necessità di un controllo umano effettivo sui sistemi IA ad alto rischio. Questo controllo è efficace solo se è informato — il che presuppone meccanismi di misurazione della qualità degli output del sistema, e cicli di feedback che permettano agli utenti di influenzare il comportamento del sistema.

Valutazione automatica della qualità (RAGAS)

La porta QualityEvaluator implementa metriche di valutazione di tipo RAGAS su ogni risposta prodotta:

  • Fedeltà (faithfulness) — la risposta è supportata dalle fonti recuperate, o il sistema ha estrapolato al di là del contesto fornito?
  • Pertinenza della risposta (answer relevance) — la risposta tratta effettivamente la domanda posta?
  • Precisione del contesto (context precision) — i passaggi recuperati sono specificamente pertinenti alla domanda?
  • Richiamo del contesto (context recall) — il sistema ha ritrovato l’insieme delle informazioni disponibili nel corpus?

Queste metriche vengono calcolate continuamente sugli scambi in produzione. Costituiscono il cruscotto di qualità del sistema — senza il quale il controllo umano non può esercitarsi che per impressione, non per misurazione.

Guardrail di ingresso e di uscita

I guardrail di ingresso (InputGuardrail) rilevano e bloccano i tentativi di iniezione di prompt, le richieste fuori dal perimetro definito, e i contenuti suscettibili di violare le politiche di utilizzo. I guardrail di uscita (OutputGuardrail) verificano la risposta prodotta prima della trasmissione: rilevamento di contenuto tossico, fuga di dati sensibili, risposta fuori perimetro.

Questi meccanismi sono i punti di controllo umano automatizzati del sistema — le barriere che impediscono al sistema di uscire dai limiti che l’organizzazione gli ha definito.

Gate di pertinenza e astensione

Prima della generazione, RelevanceGateStage valuta il punteggio di fiducia globale del contesto recuperato. Se questo punteggio è inferiore alla soglia configurata, il sistema si astiene dal generare una risposta e segnala esplicitamente l’insufficienza del contesto. Questo comportamento — preferire l’astensione a una risposta non fondata — è un requisito di governance fondamentale per i sistemi deployati in contesti dove una risposta errata ha conseguenze misurabili.

Ciclo di feedback umano

La porta FeedbackStore registra i feedback degli utenti sulle risposte prodotte: validazione, correzione, punteggio di soddisfazione. Questi dati alimentano un registro di feedback utilizzabile per il miglioramento continuo del sistema — identificazione dei domini dove la qualità del recupero è insufficiente, rilevamento dei tipi di richieste mal trattate, misurazione dell’evoluzione percepita del sistema nel tempo.

Questo ciclo di feedback è il meccanismo operativo del controllo umano continuo che i riferimenti di governance richiedono. Non sostituisce la supervisione — la rende utilizzabile.


5. Governance organizzativa e responsabilità

La governance di un sistema IA non è solo una questione tecnica. Presuppone ruoli identificati, responsabilità documentate, e una capacità di risposta in caso di incidente.

Separazione delle responsabilità per architettura

L’architettura esagonale di Lexiane materializza la separazione delle responsabilità a livello del codice. Il nucleo certificato (vectrant-core) è sotto la responsabilità del team prodotto — le sue proprietà sono verificabili meccanicamente. Ogni adattatore esterno è sotto la responsabilità del team che lo integra. Le interfacce tra i due sono contratti espliciti, tipizzati e testati.

Questa separazione facilita la ripartizione delle responsabilità tra i team di sviluppo, i team di sicurezza, e i team aziendali — senza zone grigie né accoppiamenti impliciti.

Immutabilità del registro di audit

L’audit trail SHA-256 è immutabile per costruzione. In caso di incidente — risposta incorretta, accesso non autorizzato, trattamento di dato non conforme —, la ricostruzione della sequenza degli eventi è possibile in modo certo e indipendente. La catena crittografica costituisce un registro di eventi inviolabile che può essere presentato a un regolatore, a un revisore interno, o a un tribunale, con la garanzia che il suo contenuto non è stato alterato.

Versionamento e migrazione degli schemi

Gli adattatori SQLite e pgvector mantengono un registro di migrazioni versionate (_vectrant_migrations). Le migrazioni vengono applicate sequenzialmente all’avvio — solo le versioni non ancora applicate vengono eseguite. Questo approccio garantisce che lo stato del database sia sempre coerente con la versione del software deployato, e che la cronologia delle evoluzioni dello schema sia documentata e riproducibile.


Ciò che Lexiane produce come prove di governance

Un riferimento di governance IA — che si tratti dell’AI Act, di ISO/IEC 42001, o di un riferimento interno — richiede prove, non dichiarazioni. Ecco ciò che Lexiane mette a disposizione:

Requisito di governanceProva fornita da Lexiane
Tracciabilità delle decisioni del sistemaAudit trail SHA-256 concatenato, immutabile, esportabile
Identificazione dei dati elaboratiMetadataStore persistente con cronologia completa di ingestione
Protezione dei dati personaliFiltraggio PII documentato nell’audit trail, politica per categoria
Controllo dei fornitori terzi25 interfacce di astrazione — mappatura esaustiva delle dipendenze
Controllo degli accessi ai datiPorta AccessControl (RBAC/ABAC) — filtraggio prima della generazione
Misurazione della qualità degli outputMetriche RAGAS in continuo — fedeltà, pertinenza, precisione, richiamo
Meccanismi di controllo umanoGuardrail ingresso/uscita, gate di pertinenza, ciclo di feedback
Osservabilità operativaPipelineHooks + PipelineMetrics — strumentazione senza accoppiamento
Resilienza alle interruzioni del fornitoreArchitettura modulare — sostituzione senza modifica della pipeline
Assenza di comportamento indefinito#![forbid(unsafe_code)] applicato dal compilatore — zero unwrap() in produzione

Ciò che la governance dell’IA richiede ai sistemi che deployate — e che Lexiane rende possibile

La governance dell’IA non è uno stato da raggiungere. È un processo continuo: osservare, misurare, correggere, documentare. I riferimenti — AI Act, ISO/IEC 42001, NIST AI RMF — convergono su questo punto: la governance si esercita nel tempo, su sistemi che devono essere stati progettati per renderla possibile.

Un sistema costruito su un framework opaco, accoppiato a un unico fornitore, senza tracciabilità delle decisioni e senza meccanismo di misurazione della qualità, può soddisfare requisiti documentari. Non può soddisfare requisiti di governance reale — perché le prove che una governance reale richiede sono strutturalmente assenti.

Lexiane non pretende di risolvere tutti i problemi di governance di un’organizzazione. Fornisce i meccanismi tecnici che rendono la governance possibile: tracciabilità, misurazione, controllo, indipendenza. La politica che si basa su questi meccanismi rimane responsabilità dell’organizzazione che deploya il sistema.


Domande frequenti dei responsabili governance e conformità IA

La nostra organizzazione deve conformarsi all’AI Act. Lexiane rientra nel perimetro dei sistemi ad alto rischio? L’applicabilità dell’AI Act a un sistema specifico dipende dal suo utilizzo e dal contesto di deployment — non dalla tecnologia utilizzata. Un sistema RAG deployato in un contesto medico, giudiziario, o di reclutamento può rientrare nel perimetro dell’allegato III. La valutazione di questa applicabilità è di competenza di un consulente legale specializzato. Ciò che possiamo affermare: se il vostro sistema rientra in questo perimetro, l’architettura di Lexiane vi fornisce gli strumenti per rispondere agli obblighi degli articoli 9, 10, 12, 13 e 17.

ISO/IEC 42001 è applicabile alla nostra organizzazione se non sviluppiamo noi stessi l’IA? ISO/IEC 42001 si rivolge sia alle organizzazioni che sviluppano sistemi IA sia a quelle che li utilizzano. Il suo perimetro copre l’intero ciclo di vita — sviluppo, deployment, esercizio, ritiro. Se deployate Lexiane nelle vostre operazioni, i requisiti della norma sulla governance dei sistemi IA utilizzati vi sono applicabili.

Come dimostrare al nostro comitato di direzione che il nostro sistema IA è sotto controllo? Il cruscotto di governance che Lexiane permette di costruire si basa su quattro indicatori misurabili: tasso di fedeltà delle risposte (RAGAS), tasso di astensione (richieste rifiutate dal gate di pertinenza), incidenti dei guardrail (iniezioni bloccate, contenuti filtrati), e evoluzione della soddisfazione utente (FeedbackStore). Queste metriche permettono un reporting di governance IA fattuale, in tempo reale, senza dipendere da una valutazione soggettiva.

È possibile isolare i log di audit di Lexiane nel nostro SIEM? Il sistema di hook del ciclo di vita (PipelineHooks) permette di esportare ogni evento della pipeline verso qualsiasi sistema di raccolta esterno — Splunk, Elastic, o qualsiasi SIEM che consuma eventi strutturati. L’audit trail SHA-256 può anche essere esportato indipendentemente per archiviazione regolamentare.


Avviamo la conversazione sul vostro quadro di governance.

La governance dei sistemi IA è un soggetto che si costruisce su misura — in base al vostro settore, al vostro riferimento, alla vostra organizzazione, e ai sistemi che deployate. Non proponiamo una risposta generica a una domanda che non lo è.

Proponiamo uno scambio strutturato sul vostro quadro di governance esistente, i vostri obblighi regolatori, e ciò che l’architettura di Lexiane può apportarvi concretamente.

Cosa potete aspettarvi da questo scambio:

  • Una risposta entro 48 ore lavorative
  • Un interlocutore che conosce l’AI Act, ISO/IEC 42001, e le sfide operative della governance IA
  • Una mappatura onesta di ciò che Lexiane copre — e di ciò che non copre

→ Contattaci

Nessun impegno commerciale. Una conversazione di fondo.


Riferimenti normativi e regolatori citati in questo documento: — Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, 13 giugno 2024 (AI Act) — ISO/IEC 42001:2023, Information technology — Artificial intelligence — Management system, dicembre 2023 — NIST AI Risk Management Framework 1.0, National Institute of Standards and Technology, gennaio 2023 — Regolamento (UE) 2016/679 (GDPR) — Regolamento (UE) 2022/2554 (DORA)

Richiedere l'accesso al Core Auditable

Iscrivetevi per essere informati dell'apertura del programma di audit del nostro Core. Conformemente alla nostra informativa sulla privacy, il vostro indirizzo e-mail professionale sarà utilizzato esclusivamente per questa comunicazione tecnica, senza alcun utilizzo commerciale successivo. Accesso distribuito tramite registro privato sicuro.

Contattaci