Il punto di vista di FERMA sull’AI Act
20/11/2024 Autore: redazione ANRA
In una nota la Federazione europea affronta le considerazioni pratiche per i risk manager della nuova regolamentazione sull’intelligenza artificiale e considera le implicazioni assicurative e la necessità di valutare i rischi derivanti dalla Silent AI
FERMA ha pubblicato una propria nota all'Unione Europea sull'AI Act, il regolamento UE che fornisce indicazioni sulle implicazioni pratiche dell'approccio risk based che è alla base della legislazione e considera il potenziale impatto assicurativo.
L'AI Act, pubblicato a luglio, si applicherà a tutti i 27 Stati membri dell'Unione Europea e prevede che le imprese si adeguino, nei casi a maggior rischio, a partire da febbraio 2025.
Obiettivo della norma è creare un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali delle persone contro i potenziali effetti dannosi dei sistemi di intelligenza artificiale. L'approccio basato sul rischio classifica i sistemi di intelligenza artificiale da rischio basso o minimo a rischio inaccettabile, con la maggior parte dei requisiti normativi che si applicano ai sistemi ad alto rischio.
In base alla legislazione, i sistemi ad alto rischio devono essere registrati in un database dell'UE e devono rispettare obblighi specifici relativi alla formazione e alla governance dei dati, alla trasparenza e ai sistemi di gestione del rischio.
"L'AI Act è probabilmente una delle normative più significative introdotte dall'UE negli ultimi anni, dato il potenziale impatto dell'intelligenza artificiale in ogni aspetto della nostra vita", afferma Philippe Cotelle, membro del consiglio di amministrazione di FERMA e presidente del comitato Digital. "Non solo impone ai Risk Manager un chiaro onere di migliorare il loro ruolo relativamente all’intelligenza artificiale, ma affronta anche un altro pezzo del puzzle, ovvero come tutto ciò influisce su argomenti quali responsabilità e innovazione".
In questo contesto, FERMA consiglia ai Risk Manager di seguire uno standard etico riconosciuto a livello internazionale, di definire chiaramente l'ambito delle policy, dei ruoli e delle responsabilità e di considerare l'ambiente in cui opera il sistema di intelligenza artificiale della propria organizzazione.
La nota invita le aziende a investire nell'implementazione di tecnologie sicure e nella formazione. FERMA invita i Risk Manager a prendere in considerazione la creazione di una serie di parametri di riferimento, definiti internamente, per misurare le prestazioni del sistema di intelligenza artificiale; suggerisce inoltre che gli utenti siano formati per mitigare il rischio di uso improprio, risultati non etici, potenziali pregiudizi, inesattezze e violazioni dei dati e della sicurezza. Tutti gli usi del sistema, aggiunge, devono essere in linea con la policy di intelligenza artificiale.
"La ricerca di FERMA ha rilevato che la maggior parte dei Risk Manager si concentra sull'affrontare i rischi correlati all'intelligenza artificiale", ha affermato Typhaine Beaupérin, CEO di FERMA, "con responsabilità chiave tra cui il monitoraggio dell’evoluzione normativa e lo sviluppo di politiche interne per governare l'uso dell'intelligenza artificiale nelle attività aziendali. Avere una guida chiara e mirata su come l'ambiente legislativo in evoluzione influisce direttamente sulle aziende è fondamentale per supportare i professionisti nell'affrontare questo rischio in forte cambiamento".
Da una prospettiva assicurativa, FERMA considera anche come l'impatto dell'IA sugli assicuratori possa riflettersi sui Risk e Insurance Manager.