top of page

Perché le aziende hanno bisogno di un'intelligenza artificiale spiegabile e come realizzarla


IA spiegabile
IA spiegabile

Poiché l’intelligenza artificiale informa sempre più le decisioni che vengono prese all’interno delle aziende, i sistemi di AI che vengono introdotti devono essere compresi dagli operatori e da coloro che sono interessati dall’utilizzo. Come vedremo, è importante intraprendere azioni specifiche che possono massimizzare i benefici dell’Intelligenza Artificiale e minimizzare i rischi.


APPROFONDIMENTI PIÙ POPOLARI


Le aziende si affidano sempre più ai sistemi di intelligenza artificiale (AI) per prendere decisioni che possono incidere in modo significativo sui diritti individuali, sulla sicurezza umana e sulle operazioni aziendali critiche. Ma come traggono le loro conclusioni questi modelli? Quali dati utilizzano? E possiamo fidarci dei risultati?


Affrontare queste domande è l’essenza della “spiegabilità e farlo nel modo giusto sta diventando essenziale.


E’ dunque indispensabile che il provider di AI adotti una progettazione rigorosa per garantire che le azioni e le decisioni prese dai sistemi di IA siano trasparenti, comprensibili e sottoposte a supervisione umana. Peraltro il nuovo Ai Act dell’Unione Europea dispone misure che rispondono alla crescente necessità di mantenere il controllo umano su tecnologie potenzialmente invasive e autonomamente decisionali; non significa ostacolare l'innovazione con un intervento umano costante, ma piuttosto assicurare che la tecnologia operi entro confini di sicurezza ed etica, consentendo agli operatori umani di intervenire e correggere le azioni dell'IA quando necessario.


L'AI Act richiede che ci sia sempre una forma di controllo umano per quelle applicazioni considerate ad alto rischio, come sistemi biometrici o quelli che, potenzialmente, possono influenzare diritti legali fondamentali.  Queste disposizioni implicano l'adozione di sistemi in cui ogni decisione o azione possa essere chiaramente spiegata e giustificata in termini logici e accessibili. Il concetto di "explainability" (spiegabilità) si radica nella necessità di rendere gli algoritmi di IA non solo efficaci ma anche scrutabili, per prevenire bias non intenzionali e garantire equità nei processi automatizzati.

 

Quali strumenti nella pratica gestionale ed operativa della AI?

Quanto detto si traduce nella necessità di sviluppare policy interne robuste, formare il personale su questioni etiche e, soprattutto, implementare soluzioni tecniche relative all'IA, che favoriscano una trasparenza operativa e che siano aderenti alle disposizioni normative già dal loro primo concepimento progettuale.

E' importante inoltre, affidarsi a un provider competente e affidabile, con conoscenze specifiche nella Intelligenza Artificiale che vada oltre le competenze "semplicemente" software o di Business intelligence.

Infatti, gli interventi tecnici nello sviluppo di soluzioni di IA che possano definirsi “compliant by design” devono intercettare 3 ambiti: miglioramento della spiegabilità, implementazione del controllo umano e riduzione dei bias.

 

Alberi decisionali o modelli lineari

Secondo l’esperienza di Sapiens Analytics, per quanto concerne la spiegabilità, ricorrere a modelli di IA più interpretabili, come alberi decisionali o modelli lineari, può facilitare la spiegazione delle decisioni del sistema ai non esperti. Questo è cruciale per i settori in cui le decisioni dell'IA possono avere impatti significativi sugli individui, come nella finanza o nella sanità. Qui l’impiego di strumenti di visualizzazione delle variabili e la tracciabilità delle decisioni in funzione dei dati a disposizione, sono le metodologie più funzionali per rendere comprensibili i processi di IA ai decisori e ai regolatori.


Feedback umano

La spiegabilità della logica artificiale non basta, in quanto è necessario un  loop di “Feedback Umano”, cioè cicli di verifica, in cui gli operatori umani possano rivedere e modificare, in modo tracciato le decisioni prese dal sistema. Questo non solo assicura un controllo effettivo ma permette anche di perfezionare continuamente l'algoritmo basandosi sulle revisioni umane. Ad esempio, Sapiens Analytics ha realizzato per alcuni Clienti, sistemi avanzati di document automation, in cui un sistema intelligente di parsing riconosce la tipologia di documento e ne estrae, con un sistema ottimizzato di prompting, i contenuti fondamentali, inserendoli in un datamodel, creando un digital twin del documento iniziale. In questo scenario,  l’intervento umano può supervisionare il processo, permettendo di correggere le decisioni automatiche o editando i prompt per raffinare la ricerca in casi specifici, fornendo al contempo un elemento nuovo, in ottica di machine learning.


Formazione sull’uso della IA nell’azienda

Rimane, comunque, cruciale la formazione del personale per quanto concerne le interazioni con i sistemi di IA, sfruttando simulazioni e sandbox per mostrare come le decisioni vengano prese e come possano essere eventualmente reindirizzate. Sapiens Analytics, ad esempio supporta i Clienti anche fornendo un preciso training per il personale. Da un punto di vista tecnico ed implementativo,  si può ricorrere all’impiego di applicativi di chat ed interazioni NLP, dunque in linguaggio naturale, ove l’operatore possa direttamente  interrogare il sistema, ricercando particolari risposte o informazioni, potendo richiedere e verificare la generazione di prompt specifici, che possano, infine, essere esportati nell’applicativo live, istruendo il sistema e correggendolo nel momento in cui possano generarsi errori ( in gergo allucinazioni) o derive legate a bias.


Data cleaning

L’ultimo ambito impatta sul datalake e prende in considerazione la revisione e la pulizia dei dati in origine. È importante condurre un’attenta e scrupolosa attività di analisi e normalizzazione dei dati utilizzati per addestrare i modelli di IA, affinché siano privi di bias e rappresentativi della popolazione target. L’attività non è solamente propedeutica, ma deve essere schedulata in sistemi di monitoraggio continuo, per identificare e correggere bias che possano emergere nel tempo, specialmente in modelli di apprendimento automatico che evolvono con l'uso continuato.


Governance

La conduzione di un progetto basato su sistemi di IA deve prevedere log tracciati e registri dettagliati, per poter monitorare ed archiviare tutte le decisioni intraprese dal sistema e permettere, a livello di utente umano, un’attività di auditing e verifica di conformità. Deve essere possibile estrarre dai registri report dettagliati sulle operazioni, che possano essere presentati ai regolatori, ai fini di procedere ad attività di certificazione.


Vuoi approfondire le tecnologie innovative di Sapiens Analytics? Clicca qui


In conclusione, l’AI spiegabile rappresenta un passo fondamentale verso un approccio più etico e responsabile nell'uso dell'intelligenza artificiale. Introducendo requisiti stringenti per la trasparenza e il controllo umano, il provider non solo tutela i diritti fondamentali degli individui, ma introduce anche l'innovazione in maniera sicura e controllata. L'obbligo di rendere le decisioni dei sistemi di IA comprensibili e giustificabili ribadito dall’AI ACT garantisce una maggiore fiducia nel loro impiego, promuovendo un'adozione più ampia e consapevole delle tecnologie avanzate. La regolamentazione può coesistere con l’avanzamento tecnologico, guidando lo sviluppo di soluzioni AI che siano non solo intelligenti, ma anche prive di distorsioni, a prova di rischi, eticamente sostenibili e socialmente accettabili.

 

Per informazioni più dettagliate e su come implementare questo e altri strumenti di Intelligenza Artificiale che aumentano la competitività, l'efficienza e la produttività della tua azienda, visita il sito web Sapiens Analytics e contattaci a welcome@sapiensanalytics.it

 

bottom of page