Un’intelligenza artificiale etica, perché?

di Redazione TecnoGazzetta

Interrogarsi criticamente sull’IA, sulle sue potenzialità e sulle sue sfide, significa, infatti, indagare il funzionamento, le sfumature, i limiti, le complessità e le contraddizioni del pensiero umano. Significa discutere della tecnologia che sta influenzando maggiormente il nostro presente e il nostro futuro. E significa, in fin dei conti, discutere del futuro che vogliamo costruire: la discussione etica sull’intelligenza artificiale è più che mai necessaria oggi che siamo alle porte della prima legge europea in materia. È quanto sostiene Pedro Garcia, Amministratore Delegato di Minsait in Italia.

UN’INTELLIGENZA ARTIFICIALE, PERCHÉ?

di Pedro Garcia, Amministratore Delegato di Minsait in Italia

La discussione etica sull’intelligenza artificiale è più che mai necessaria oggi che siamo alle porte della prima legge europea in materia. Interrogarsi criticamente sull’IA, sulle sue potenzialità e sulle sue sfide, significa indagare il funzionamento, le sfumature, i limiti, le complessità e le contraddizioni del pensiero umano. Significa discutere della tecnologia che sta influenzando maggiormente il nostro presente e il nostro futuro. E significa, in fin dei conti, discutere del futuro che vogliamo costruire.

Il futuro regolamento europeo, l’AI Act, attualmente in discussione a Bruxelles, è stato preceduto da numerosi codici di autoregolamentazione, linee guida di buone pratiche, libri bianchi, ecc. Già nel 2020, l’AI Ethics Guidelines Global Index ha identificato 160 proposte di principi etici. Anche l’Italia ha compiuto progressi significativi con il Programma strategico per l’intelligenza artificiale, che prevede 24 politiche da attuare nei prossimi tre anni per rafforzare il sistema nel Paese.

Tutte queste linee guida, raccomandazioni e codici di autoregolamentazione sono necessarie e utili, anche se un’eccessiva proliferazione può portare a problemi di ridondanza e confusione. Luciano Floridi ha riassunto le diverse proposte in cinque principi:
(i) la beneficenza, intesa come orientamento dei sistemi a promuovere il benessere, preservare la dignità e preservare il pianeta;
(ii) la non-maleficenza, attraverso il rispetto della privacy e della sicurezza;
(iii) l’autonomia decisionale (senza dimenticare, in ogni caso, che la nostra IA “debole” avrebbe solo un’autonomia programmata o delegata nelle sue decisioni; e non godrebbe, quindi, di una piena agency morale);
(iv) l’equità, articolata su prosperità, solidarietà e non iniquità, che comprende l’imparzialità o l’assenza di pregiudizi e preconcetti che possano portare l’algoritmo a prendere decisioni ingiuste; e
(v) l’”esplicabilità”, intesa come trasparenza del processo interno che gli algoritmi seguono per l’elaborazione dei dati, l’identificazione dei modelli e il processo decisionale.

Floridi traccia così un quadro sintetico di principi che sono attraversati da due domande chiave, la prima delle quali è “un’intelligenza artificiale, perché?”; “a quale scopo?”. La questione della finalità dei sistemi è spesso trascurata, poiché si presuppongono vantaggi economici e politici che offuscano qualsiasi altra considerazione, distogliendo l’attenzione da altri usi orientati al bene comune che vanno oltre l’interesse commerciale, la riduzione dei costi o il miglioramento della sicurezza.

La questione dello scopo sarebbe seguita da un’altra domanda, non meno importante: si tratta di un sistema il cui uso è per il bene comune? Non mancano esempi di sistemi progettati per uno scopo lodevole, ma utilizzati in modo iniquo o potenzialmente pericoloso. Microsoft, ad esempio, ha appena annunciato limitazioni all’uso del suo strumento Custom Neural Voice, che è in grado di imitare una voce da un discorso registrato. Lo strumento ha un grande potenziale, ma ci sono anche evidenti rischi di uso fraudolento.

I cinque principi riassunti da Floridi costituiscono senza dubbio una solida base per la regolamentazione della materia. Tuttavia, ci si potrebbe chiedere se questi principi – tutti nati nelle istituzioni occidentali, tra l’altro – siano validi in tutti i tempi e in tutti i luoghi; e se l’analisi etica dei sistemi di IA non possa essere arricchita guardando all’esterno dei sistemi, tenendo conto anche del contesto in cui i sistemi vengono progettati, implementati e valutati. E questo nella misura in cui la nostra intelligenza artificiale costruisce l’ordine sociale, ma è anche, allo stesso tempo, una conseguenza dell’ordine sociale in cui nasce: è madre e figlia del quadro materiale e ideologico in cui è concepita e opera.

Infatti, per alcuni autori come la ricercatrice ed esperta di IA etica Lorena Jaume-Palasí, la creazione di principi orizzontali, validi per tutti i settori e senza tenere conto dei contesti particolari dei sistemi, non sono altro che iniziative di facciata. Come se dovessimo creare, spiega Jaume-Palasí, delle regole per le statistiche che siano utili a un ginecologo come a un militare… solo che non ci basiamo sulle statistiche della nostra cartella clinica e diciamo al nostro banchiere di interpretarle per noi.

Non si tratta di cadere nel relativismo, ma di arricchire la valutazione dell’“esplicabilità”, dell’autonomia o dell’imparzialità dei nostri sistemi con uno sguardo al contesto in cui gli algoritmi sono stati progettati e che hanno contribuito a plasmare. Un’interrogazione critica proiettata verso l’interno e verso l’esterno dell’algoritmo per cementare la base etica che sostiene la necessaria regolamentazione della materia e guida la governance della sua applicazione.

Vuoi ricevere gli aggiornamenti delle news di TecnoGazzetta? Inserisci nome ed indirizzo E-Mail:


Acconsento al trattamento dei dati personali (Info Privacy)