Le nuove linee guida per l'implementazione dell'Intelligenza Artificiale





L’intelligenza artificiale può fornire alle aziende un vantaggio competitivo in vari modi, dalla scoperta di opportunità di business trascurate allo snellimento di processi costosi, ma è anche vero che senza un’adeguata attenzione alla governance, alle normative e ai rischi operativi, le applicazioni di AI possono produrre anche risultati catastrofici.

La Commissione Europea ha pubblicato una proposta di regolamentazione. Scopriamola insieme.




Artificial Intelligence Act: contenuti e obiettivi

La proposta sull’ AI Act, pubblicata il 21 aprile 2021 dalla Commissione Europea, è un testo per molti versi dalla portata rivoluzionaria: si tratta infatti del primo corpus legislativo che si propone di regolare una materia così ampia come l’intelligenza artificiale.

In preparazione all’AI Act sono stati pubblicati, negli scorsi due anni, numerosi lavori, come ad esempio un white paper sull’intelligenza artificiale e un documento frutto dell’impegno di 52 esperti internazionali incaricati dalla Commissione Europea di discutere di etica e affidabilità.

Lo scopo dell’AI Act è assicurare l’affidabilità e controllo dei rischi riguardanti i sistemi di intelligenza artificiale che circolano nel territorio UE: la proposta punta a definire regole condivise, in grado di garantire il corretto funzionamento di prodo


tti e servizi basati sull’IA, agevolarne l’immissione sul mercato interno, e ad aumentare il grado di fiducia degli utenti nell’impiego di beni e servizi basati sull’IA – che già oggi pervadono ogni ambito della vita quotidiana - e a codificare gli elevati standard del paradigma dell’IA affidabile europea.

È in programma una discussione del cosiddetto “trilogo”, ovvero tra Commissione, Parlamento e Consiglio, in modo da arrivare alla stesura di un testo definitivo, che verrà poi pubblicato e, presumibilmente nella primavera del 2023, entrerà in vigore.

Requisiti inderogabili per le linee guida dell’AI Act sono trasparenza ed interpretabilità, che dovranno permeare tutti i sistemi e algoritmi di intelligenza artificiale usati nell’Unione Europea.


I rischi etici e legali dell’IA

Il regolamento UE sull’intelligenza artificiale, si concentra sulle applicazioni di IA considerate ad alto rischio, che si prevede costituiranno il 10% di quelle sul mercato.

Per stabilire i criteri minimi di affidabilità per l’intelligenza artificiale, la proposta della Commissione stila una classifica dei prodotti che utilizzano – anche solo parzialmente - il software IA in base al rischio di impatto negativo su diritti fondamentali quali la dignità umana, la libertà, l’uguaglianza, la democrazia, il diritto alla non discriminazione, la protezione dei dati e, in particolare, la salute e la sicurezza.

Più il prodotto è suscettibile di mettere in pericolo questi diritti, più severe sono le misure adottate per eliminare o mitigare l'impatto negativo sui diritti fondamentali, fino a vietare quei prodotti che sono completamente incompatibili con questi diritti.

Al centro di questi rischi ci sono i fattori riguardanti l’uso poco attento dell’IA da parte di un’azienda, compreso il ricorso a set di dati distorti o l’implementazione di intelligenza artificiale senza un’adeguata governance in atto, e quelli inerenti alla tecnologia, come ad esempio il modo in cui un particolare sistema di IA arriva a una determinata conclusione (la cosiddetta spiegabilità): i seguenti sono i problemi di implementazione che ogni manager IT deve tenere in considerazione quando elabora un programma di intelligenza artificiale nella propria azienda.


Pregiudizi dati e addestramenti reti neurali

Il campo dell’etica dell’intelligenza artificiale è generalmente suddiviso in due aree: una riguardante l’etica che guida gli esseri umani che sviluppano l’IA e l’altra l’etica delle macchine, che guida il comportamento morale dell’IA o dei robot stessi. Tuttavia, le due aree non sono così drasticamente separate: il comportamento etico dell’AI è, in parte, un riflesso del comportamento etico di coloro che la progettano e la implementano; pertanto, le due aree dell’etica dell’IA sono indissolubilmente legate l’una all’altra.

Il livello di imparzialità (e di parzialità) delle analisi effettuate tramite intelligenza artificiale dipende dal livello di oggettività o di parzialità delle decisioni che gli esseri umani hanno adottato nella scelta di dati, regole e input alla base dello sviluppo, attraverso un processo di identificazione del problema da risolvere, raccolta dei set di dati e alla continua integrazione di nuove tecnologie e nuovi dati.

Le analisi, le stime e i comportamenti dell’intelligenza artificiale rispecchiano e sono direttamente proporzionali ai criteri e alle scelte dei data scientist e degli sviluppatori: quando non sono correttamente programmati, i sistemi di intelligenza artificiale possono rispecchiare le convinzioni innate, e spesso pregiudizi inconsapevoli, di chi li ha creati, inducendo la tecnologia a ragionamenti sbagliati e dannosi.

Alimentare gli algoritmi con dati sbagliati potrebbe anche portare i sistemi ad ereditare errori da comportamenti del passato e continuare a metterli in pratica anche nel futuro.

Un algoritmo di credito che discrimina le donne o uno strumento di raccomandazione delle risorse umane che non suggerisce corsi di leadership ad alcuni dipendenti metterà queste persone in una posizione di svantaggio (nel 2014, Amazon ha creato un software di reclutamento basato sull’intelligenza artificiale che preferiva in modo schiacciante i candidati maschi).


Sanzioni del GDPR

Il regolamento generale sulla protezione dei dati dell’UE (GDPR) è una delle leggi sulla protezione dei dati più severe al mondo, con sanzioni fino a 20 milioni di euro o pari al 4% delle entrate globali dell’azienda sanzionata e il numero di multe emesse da quando è entrata in vigore, nel 2018, continua a salire.

Il GDPR – così come normative simili emergenti in tutto il mondo – impone regole precise per garantire il rispetto della privacy e norma il modo in cui le aziende possono utilizzare o condividere dati privati sensibili. Poiché i sistemi di intelligenza artificiale richiedono enormi quantità di dati per il training, la mancanza di pratiche di governance adeguate rende facile infrangere le leggi sulla privacy dei dati nell’implementazione dell’intelligenza artificiale.

Si prevede che il mancato rispetto di queste leggi comporterà, per le aziende multate, una serie di sanzioni pecuniarie fino al 6% delle entrate globali, superiori anche a quelle del GDPR.


Trasparenza e spiegabilità

Troppo spesso, i sistemi di intelligenza artificiale sono imperscrutabili e forniscono poche informazioni su come traggono conclusioni. In questo modo, trovare l’origine di un problema può essere molto difficile, se non quasi impossibile.

Nel caso delle auto a guida autonoma, ad esempio, bisogna essere in grado di spiegare ogni singola scelta dal sistema, poiché la minima imprecisione potrebbe mettere in pericolo molte persone: un processo decisionale che non si può ricostruire, in ogni sua fase, non offre le garanzie che sarebbe giusto pretendere in materia di sicurezza.

La mancanza di trasparenza e spiegabilità ha comportato, anche per un’azienda farmaceutica globale, importanti conseguenze: dopo aver lavorato su un vaccino contro il COVID con l’aiuto dell’IA per trovare più velocemente una soluzione, il progetto è stato reso obsoleto dalla mancanza di governance nel processo di sviluppo dell’algoritmo. Non potendo spiegare alle autorità di regolamentazione come funzionassero gli algoritmi, infatti, il lavoro non poteva essere considerato privo di errori, e non è stato approvato.



Le aziende non dovrebbero aspettare l’implementazione ufficiale del Regolamento sull’IA, per creare spiegabilità e trasparenza nei loro sistemi di intelligenza artificiale. Conoscere subito le ragioni delle decisioni prese dall’IA usata è utile sia in termine di rapidità sia di risparmio economico nella risoluzione di eventuali complicazioni e nella più facile semplificazione dei processi.


17 visualizzazioni0 commenti