È stato pubblicato il nuovo position paper della Cabina di Regia per l’attuazione dell’AI Act europeo, promossa dalla SPES Academy, che offre una lettura sistemica e integrata della governance dell’intelligenza artificiale, individuando nel sistema di gestione del rischio il perno dell’intero impianto regolatorio.
Il documento si inserisce nel solco delle più recenti riflessioni sviluppate a livello europeo sul rapporto tra innovazione tecnologica, tutela dei diritti fondamentali e sostenibilità dei modelli di regolazione, proponendo un superamento dell’approccio frammentato che ha spesso caratterizzato l’interpretazione dell’AI Act.
Il ruolo centrale del risk management nell’AI Act
Il paper evidenzia come il sistema di gestione del rischio, disciplinato dall’articolo 9 dell’AI Act, rappresenti il punto di integrazione tra dimensione tecnica, giuridica e organizzativa.
A differenza dei modelli tradizionali di product safety, il risk management nell’AI Act assume una natura distribuita lungo l’intero ciclo di vita del sistema, coinvolgendo sia provider sia deployer. Ne deriva una concezione dinamica e continua del rischio, che impone alle organizzazioni di adottare strumenti di monitoraggio, aggiornamento e adattamento costante.
In questo contesto, emerge con forza l’esigenza di affiancare alle tradizionali metriche quantitative una valutazione qualitativa del rischio, capace di considerare elementi quali l’irreversibilità degli effetti, le asimmetrie di potere e la vulnerabilità dei contesti di applicazione.
Tre direttrici per la governance dell’intelligenza artificiale
Il lavoro della Cabina di Regia individua tre direttrici fondamentali per l’attuazione efficace dell’AI Act:
- una ridefinizione della nozione di rischio, che superi l’approccio esclusivamente probabilistico;
- l’adozione di modelli di governance integrati, in grado di superare logiche organizzative settoriali;
- lo sviluppo di una compliance armonizzata, capace di coordinare strumenti diversi evitando duplicazioni e inefficienze.
Particolare rilievo assume il tema della compliance integrata, che richiede un coordinamento tra strumenti quali il risk management system (art. 9), la Fundamental Rights Impact Assessment (art. 27) e la Data Protection Impact Assessment prevista dal GDPR. L’obiettivo è costruire un framework unitario di valutazione del rischio lungo tutto il ciclo di vita dei sistemi di intelligenza artificiale.
Verso modelli operativi concreti
Il position paper sottolinea, infine, come l’effettività dell’AI Act dipenderà dalla capacità delle organizzazioni – pubbliche e private – di tradurre i principi normativi in modelli operativi concreti, fondati su integrazione, continuità e cooperazione tra i diversi attori della filiera.
In questa prospettiva, la governance dell’intelligenza artificiale non rappresenta soltanto una sfida regolatoria, ma un vero e proprio processo di trasformazione dei modelli decisionali e organizzativi, destinato a incidere in modo profondo sull’equilibrio tra innovazione tecnologica e tutela dei diritti.
Il contributo della Cabina di Regia si propone così come un punto di riferimento per istituzioni, imprese e operatori del diritto chiamati a confrontarsi con l’attuazione concreta dell’AI Act, offrendo un quadro interpretativo capace di orientare le scelte strategiche nei prossimi anni.
Leggi il PDF: Il sistema di gestione del rischio nell’AI Act: verso una governance integrata





