Un nuovo report prodotto dall’Università di Bologna e dall’Università di Oxford aiuterà a proteggere le persone, la società, e l’ambiente dai rischi dell’IA, offrendo alle organizzazioni un nuovo approccio per sviluppare e gestire queste tecnologie in linea con le future normative europee
Dal lavoro congiunto di studiosi dell’Università di Bologna e dell’Università di Oxford arriva una nuova metodologia di auditing, unica al mondo, per aiutare le imprese e le organizzazioni a seguire le future normative europee sui sistemi di intelligenza artificiale (IA).
L’iniziativa –
presentata in un report pubblicato a fine marzo – è nata come risposta alla proposta di
regolamento sull’intelligenza artificiale avanzata lo scorso anno dalla
Commissione europea (Artificial Intelligence Act – AIA), documento che si propone di coordinare l’approccio europeo rispetto alle implicazioni umane ed etiche dell’IA.
La nuova metodologia di auditing – chiamata “capAI” (conformity assessment procedure for AI) – aiuterà il mondo delle imprese ad adeguarsi alla futura legislazione europea sull’IA, prevenendo o comunque riducendo il rischio che i sistemi di intelligenza artificiale si comportino in modo non etico e provochino danni a singoli individui, alle comunità, alla società più in generale, e all’ambiente.
Messo a punto da un gruppo di esperti del
Centro per l’Etica Digitale (CEDE) attivo al
Dipartimento di Scienze Giuridiche dell’Università di Bologna, della
Saïd Business School e dell’
Oxford Internet Institute dell’
Università di Oxford, “capAI” aiuterà le organizzazioni a fare una valutazione dei loro attuali sistemi di intelligenza artificiale, in modo da
prevenire violazioni della privacy e un utilizzo scorretto dei dati. Inoltre, questo nuovo strumento offrirà supporto per spiegare i risultati ottenuti da sistemi IA, e per lo sviluppo e l’attivazione di sistemi affidabili e conformi all’Artificial Intelligence Act europeo.
Grazie a “capAI”, le imprese saranno in grado di produrre una scheda di valutazione per ognuno dei loro sistemi di intelligenza artificiale, che potrà essere condivisa con i loro clienti. Le imprese potranno così mostrare come vengono applicate le “good practices” sul tema e come avviene la gestione consapevole delle problematiche etiche legate all’IA. Questa scheda di valutazione tiene conto degli obiettivi del sistema di AI, dei valori organizzativi che lo sostengono e dei dati che sono stati utilizzati per attivarlo. Inoltre, include informazioni sul responsabile del sistema, insieme ai suoi contatti, nel caso in cui i clienti desiderino mettersi in contatto per dubbi o domande.
“Per mettere a punto il percorso di capAI, abbiamo prima di tutto creato il più completo database esistente sugli errori prodotti da sistemi di IA“, spiega Matthias Holweg, American Standard Companies Chair in Operations Management alla Saïd Business School e coautore del rapporto. “A partire da questo database, segnalando i problemi più comuni e descrivendo in dettaglio le migliori ‘best practices’, abbiamo poi creato una ‘cassetta degli attrezzi’ unica al mondo per aiutare le organizzazioni a sviluppare e gestire sistemi di intelligenza artificiale a norma di legge, tecnicamente solidi e rispettosi dei principi etici. La nostra speranza è che ‘capAI’ possa diventare un processo standard per tutti i sistemi IA e prevenire così i tanti problemi etici nati fino ad oggi”.
Oltre a tutto questo, ‘capAI’ può anche aiutare le organizzazioni che lavorano con i sistemi di intelligenza artificiale a monitorare la progettazione, lo sviluppo e l’utilizzo delle tecnologie di IA, a mitigare i rischi di errori e la mancanza di fiducia in questi sistemi, a prevenire danni sia sul piano economico sia su quello dell’immagine pubblica, e a valutare le implicazioni etiche, legali e sociali delle tecnologie di IA.
“L’intelligenza artificiale, nelle sue molteplici forme, è pensata come strumento a beneficio dell’umanità e dell’ambiente: è una tecnologia estremamente potente, ma può diventare anche pericolosa”
, spiega il professor Luciano Floridi, direttore del Centro per l’Etica Digitale (CEDE) dell’Università di Bologna, docente all’Oxford Internet Institute e coautore del report. “Per questo, abbiamo sviluppato una metodologia di audit in grado di verificare che i sistemi di IA siano in linea con la legislazione europea e rispettino i principi etici: in questo modo possiamo contribuire a garantire lo sviluppo e l’utilizzo corretto di queste tecnologie”.
Condividi questo articolo: