Il punto di vista di FERMA sull’AI Act

20/11/2024 Autore: redazione ANRA

il-punto-di-vista-di-ferma-sull-ai-act

In una nota la Federazione europea affronta le considerazioni pratiche per i risk manager della nuova regolamentazione sull’intelligenza artificiale e considera le implicazioni assicurative e la necessità di valutare i rischi derivanti dalla Silent AI

FERMA ha pubblicato una propria nota all'Unione Europea sull'AI Act, il regolamento UE che fornisce indicazioni sulle implicazioni pratiche dell'approccio risk based che è alla base della legislazione e considera il potenziale impatto assicurativo.

L'AI Act, pubblicato a luglio, si applicherà a tutti i 27 Stati membri dell'Unione Europea e prevede che le imprese si adeguino, nei casi a maggior rischio, a partire da febbraio 2025. 

Obiettivo della norma è creare un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali delle persone contro i potenziali effetti dannosi dei sistemi di intelligenza artificiale. L'approccio basato sul rischio classifica i sistemi di intelligenza artificiale da rischio basso o minimo a rischio inaccettabile, con la maggior parte dei requisiti normativi che si applicano ai sistemi ad alto rischio.

In base alla legislazione, i sistemi ad alto rischio devono essere registrati in un database dell'UE e devono rispettare obblighi specifici relativi alla formazione e alla governance dei dati, alla trasparenza e ai sistemi di gestione del rischio.

"L'AI Act è probabilmente una delle normative più significative introdotte dall'UE negli ultimi anni, dato il potenziale impatto dell'intelligenza artificiale in ogni aspetto della nostra vita", afferma Philippe Cotelle, membro del consiglio di amministrazione di FERMA e presidente del comitato Digital. "Non solo impone ai Risk Manager un chiaro onere di migliorare il loro ruolo relativamente all’intelligenza artificiale, ma affronta anche un altro pezzo del puzzle, ovvero come tutto ciò influisce su argomenti quali responsabilità e innovazione".

La nota di FERMA evidenzia i tre pilastri essenziali di un approccio mirato a sfruttare al meglio i nuovi requisiti, che possono fungere come base per i Risk Manager nelle considerazioni per le loro imprese:
1. sviluppo di una strategia di intelligenza artificiale in un quadro di governance adeguato, che può essere descritto da un documento di policy e dall'implementazione di processi end-to-end;
2. implementazione della tecnologia appropriata e investimento nella formazione continua di dipendenti e partner, nonché fornitura di documentazione e guida per i clienti;
3. governance e tecnologia sono progettate in modo da anticipare i requisiti di audit; si raccomanda inoltre di perseguire una certificazione formale, sebbene non esplicitamente richiesta dalla legge.

In questo contesto, FERMA consiglia ai Risk Manager di seguire uno standard etico riconosciuto a livello internazionale, di definire chiaramente l'ambito delle policy, dei ruoli e delle responsabilità e di considerare l'ambiente in cui opera il sistema di intelligenza artificiale della propria organizzazione.

La nota invita le aziende a investire nell'implementazione di tecnologie sicure e nella formazione. FERMA invita i Risk Manager a prendere in considerazione la creazione di una serie di parametri di riferimento, definiti internamente, per misurare le prestazioni del sistema di intelligenza artificiale; suggerisce inoltre che gli utenti siano formati per mitigare il rischio di uso improprio, risultati non etici, potenziali pregiudizi, inesattezze e violazioni dei dati e della sicurezza. Tutti gli usi del sistema, aggiunge, devono essere in linea con la policy di intelligenza artificiale.

"La ricerca di FERMA ha rilevato che la maggior parte dei Risk Manager si concentra sull'affrontare i rischi correlati all'intelligenza artificiale", ha affermato Typhaine Beaupérin, CEO di FERMA, "con responsabilità chiave tra cui il monitoraggio dell’evoluzione normativa e lo sviluppo di politiche interne per governare l'uso dell'intelligenza artificiale nelle attività aziendali. Avere una guida chiara e mirata su come l'ambiente legislativo in evoluzione influisce direttamente sulle aziende è fondamentale per supportare i professionisti nell'affrontare questo rischio in forte cambiamento".

Da una prospettiva assicurativa, FERMA considera anche come l'impatto dell'IA sugli assicuratori possa riflettersi sui Risk e Insurance Manager.

La nota consiglia inoltre ai gestori del rischio di prendere in considerazione l'analisi della Silent IA, ovvero l’esposizione sconosciuta o non quantificata all'IA che potrebbe avere un impatto su altre polizze assicurative in corso.

COLLABORAZIONI

ferma

FERMA

10.12.2019 scopri di più