Innovazione

Principi etici dell’intelligenza artificiale: è tempo di unire, promuovere e comunicare

Principi etici dell’intelligenza artificiale
Contenuto curato da Massimo Chioni

Il futuro dei sistemi di intelligenza artificiale si preannuncia decisamente ricco di novità e di soddisfazioni, anche grazie allo sviluppo dei modelli di deep learning e di machine learning. Ne abbiamo parlato in redazione, siamo tutti appassionati di tecnologia e cultori dell’intelligenza artificiale, ecco di seguito le nostre riflessioni.

Perché le prospettive del settore IA si possono considerare rosee?

Il fatto è che la potenziale applicazione di tali tecnologie è quasi infinita. I sistemi di intelligenza artificiale che si fondano sul machine learning si dimostrano particolarmente efficaci, al punto che gli eventuali ostacoli rispetto a una eventuale diffusione non sono di tipo tecnologico, ma al massimo di carattere giuridico o etico. In alcuni ambiti commerciali strategici, per altro, le tecnologie in questione sono ben radicate, e non manca molto perché possano arrivare anche al settore giuridico, a quello finanziario ed economico o a quello sanitario e medico.

Da cosa dipende questa notevole diffusione?

I modelli predittivi sono in grado di apprendere in virtù della grande mole di informazioni che vengono messe a loro disposizione. Di conseguenza, hanno la capacità di associare a una decisione le caratteristiche di un soggetto. In un certo senso è come se prendessero il posto del ragionamento umano, ed è questo che pone dei dubbi e degli interrogativi di natura etica. Questi sistemi, anche se sono stati sviluppati e messi a punto dall’uomo, conoscono una evoluzione tanto complessa che poi l’uomo stesso non riesce a comprenderli in profondità. Pensiamo, per esempio, ai modelli di Deep Neural Network e di Neural Network, che sono decisamente sofisticati e molto complicati da interpretare. Infatti, è più o meno impossibile comprendere il loro comportamento interno e capire le loro decisioni. Ma è pericoloso accettare queste ultime a scatola chiusa.

Qual è l’approccio all’intelligenza artificiale a livello europeo?

Per capirlo è necessario partire dal presupposto che le origini del sistema europeo vanno identificate nella concezione kantiana per la quale ogni soggetto ha dignità, autonomia e libertà. Di conseguenza, lo sviluppo di sistemi di intelligenza artificiale non può non rispettare l’equità, la prevenzione dai rischi, la spiegazione e il rispetto per l’autonomia umana, che sono 4 principi etici a cui non si può rinunciare. Sul piano regolamentare si tratta di un approccio rigido, al punto che qualcuno lo considera quasi come un ostacolo rispetto alle possibilità di sviluppo in Europa dell’intelligenza artificiale. Ma non manca chi è del parere opposto, pensando che si tratti di un vantaggio competitivo, visto che i consumatori potrebbero essere interessati a sistemi capaci di assicurare più tutele e garanzie.

A livello pratico che cosa è stato fatto?

È giunta la nomina, da parte della Commissione Europea, di un team di esperti identificati dalla sigla AI HLEG, i quali un paio di anni fa hanno definito delle linee guida molto rilevanti per ciò che concerne lo sviluppo dei sistemi di intelligenza artificiale. La data governance e la privacy sono due dei principi che sono stati messi in evidenza. Per quanto riguarda la privacy, in particolare, è stata sottolineata l’esigenza di proteggere i dati nel corso di tutto il ciclo di vita della tecnologia: un obiettivo che si può raggiungere tramite un meccanismo di valutazione sistematica che abbia la capacità di misurare l’impatto di tutti i modelli sulla protezione dei dati.

In termini più semplici, cosa vuol dire?

Di norma, i modelli di machine learning hanno una fase di apprendimento che si fonda sul ricorso a dati che sono de-identificati: vuol dire che non permettono di identificare in modo diretto le persone a cui si riferiscono. D’altra parte, nel momento quei dati vengono associati a informazioni di altro tipo, che magari sono pubbliche, non è certo difficile re-identificare i soggetti coinvolti, ed è ovvio che questo può comportare dei rischi per le loro libertà individuali, o comunque per i loro diritti. È qui che subentra il secondo principio che abbiamo menzionato, vale a dire quello di una appropriata data governance. Essa deve comprendere, fra l’altro, l’implementazione di protocolli relativi alla fruizione dei dati, in modo che la loro integrità possa essere salvaguardata. E lo stesso dicasi per la loro qualità, da intendersi come la possibilità di avere a che fare con dati in cui non ci siano errori o distorsioni.

Come diffondere la cultura dell’intelligenza artificiale in Italia?

Servono realtà che si pongano l’obiettivo di promuovere la cultura dell’IA con un approccio etico, basato sui bisogni degli individui in relazione alle soluzioni di intelligenza artificiale e alla loro implementazione. Una istituzione capace di diffondere la cultura IA partendo dall’organizzazione di workshop didattici e hackathon, ma anche seminari e conferenze; al tempo stesso si impegni nella promozione di tutto il materiale divulgativo che fa parte del suo ecosistema. Un team di esperti capaci di proporre un piano operativo grazie a cui il nostro Paese possa raggiungere standard di competitività elevati nel campo dell’intelligenza artificiale, sempre adottando un approccio di tipo etico.