Insurance Trade

Intelligenza Artificiale

Questa tecnologia in rapida fase di sviluppo e già impiegata in molti dispositivi della nostra vita quotidiana, pone numerose possibilità di progresso ma anche, allo stesso tempo, rischi e minacce che devono essere gestite in maniera chiara ed efficace per tutelare i diritti fondamentali e la sicurezza dei cittadini - SECONDA PARTE

Intelligenza Artificiale hp_vert_img
A prima vista, sembra che questa tecnologia possa solo migliorare le condizioni umane, ma non dobbiamo dimenticare che simili nuovi materiali o strumenti, dalle prestazioni apparentemente straordinarie, hanno poi riservato drammatiche sorprese per l’umanità intera. Pensiamo all’amianto o alle materie Pfas: tutte cose che si sono rivelate nocive per l’uomo, pur essendo state pensate per aiutarlo.
Anche per il mondo assicurativo l’IA rappresenta un grande interrogativo e può costituire uno straordinario aiuto, ma pone delicati problemi che interessano quasi tutti i rami. Da un lato, ad esempio, essa può fornire un sistema di allerta per i disastri naturali, riconoscendone i primi segni in base alle esperienze passate. Ciò permetterebbe di preparare la risposta più adeguata a questi eventi, aiutandoci a ridurre il loro tragico costo in termini di vite umane e determinando un grande risparmio sul piano finanziario per i danni alle cose e agli animali. Per altri versi, però, ci chiediamo come comportarci di fronte a quei sinistri che dovessero risalire all’uso dell’IA e non fossero riconducibili a responsabilità umane, come accadrebbe per un conducente d’auto o un produttore. 

LA RESPONSABILITÀ IN CASO DI SINISTRO
Interrogativi simili hanno già investito le compagnie di assicurazione, a partire dai problemi sorti per le autovetture a guida autonoma (chi è effettivamente responsabile per l‘eventuale sinistro: il conducente o il produttore del software che guida effettivamente l’auto? E a chi andrebbe quindi intestata la polizza per la responsabilità civile: al proprietario dell’auto o al suo produttore?). Ma lo stesso discorso si applica a qualsiasi prodotto o servizio che implichi una fonte o un’origine non direttamente umane e, come abbiamo visto, i campi di utilizzo dell’IA sono ormai infiniti.
Si pone insomma una questione di regole, il che accade in ogni occasione nella quale un nuovo soggetto giunge all’attenzione della società. Trattandosi di uno strumento del tutto nuovo, è dunque necessario provvedere a tracciare le linee sulle quali la legge dello Stato indicherà alla magistratura come dirimere le tante questioni che si sono già affacciate all’attenzione di esperti e operatori, nonché dei semplici cittadini.

LA PROPOSTA DELL’UNIONE EUROPEA
L’Unione Europea che, come abbiamo visto, si pone l’obiettivo di essere un leader mondiale nello sviluppo di un tipo di IA sicura, affidabile ed etica, ha così pubblicato una Proposta di regolamento del Parlamento europeo e del Consiglio, allo scopo di stabilire regole armonizzate su questa tecnologia. La nuova legge sull’intelligenza artificiale ha l’obiettivo di assicurare che i sistemi di IA immessi sul mercato siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali dei cittadini, nel rispetto e nella certezza del diritto, per garantire lo sviluppo nel mercato di applicazioni lecite e affidabili.
Muovendosi sulle stesse linee già applicate con successo su altre questioni rilevanti, come il Gdpr o la salvaguardia dell’ambiente, l’Unione Europea ha scelto ancora una volta di raggiungere tali obiettivi con un approccio risk based. Alla sua origine c’è l’idea che, in una materia in continua evoluzione, una normativa ingessata rischierebbe di porsi in antitesi rispetto all’inevitabile sviluppo tecnologico del suo oggetto, mentre un approccio direttamente proporzionato al rischio permetterebbe di agganciare la norma alla crescita del sistema. 

IL PERIMETRO DELLA DISCIPLINA
Fatta questa premessa, la definizione di produttore introdotta dalla nuova normativa lo individua come fornitore, cioè come “una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che sviluppa un sistema di IA o che fa sviluppare un sistema di IA al fine di immetterlo sul mercato o metterlo in servizio con il proprio nome o marchio, a titolo oneroso o gratuito”.
L’ambito di applicazione riguarda: 
a. i fornitori che immettono sul mercato o mettono in servizio sistemi di IA nell’Unione Europea, indipendentemente dal fatto che siano stabiliti nell’Ue o in un paese terzo;
b. gli utenti dei sistemi di IA situati nell’Unione Europea;
c. i fornitori e gli utenti di sistemi di IA situati in un paese terzo, laddove l’output prodotto dal sistema sia utilizzato nell’Ue.
In pratica, quando un sistema dotato di IA è immesso sul mercato dell’Unione, è utilizzato da utenti che si trovano all’interno dell’Unione o genera strumenti o servizi utilizzati all’interno dell’Unione, si applicherà la normativa comunitaria.

I DIVERSI LIVELLI DI RISCHIO
La proposta di regolamento differenzia i sistemi di IA a seconda che determinino un rischio inaccettabile, alto, oppure un rischio basso o minimo. Quelli che comportano un rischio inaccettabile (perché violano diritti fondamentali dell’individuo, ad esempio) sono vietati. I sistemi a basso rischio sono invece sostanzialmente liberalizzati: ad ogni buon conto, però, i fornitori sono incoraggiati ad adottare codici di condotta. Sono invece disciplinati nel dettaglio i sistemi ad alto rischio.
La classificazione di un sistema di IA ad alto rischio si basa sulla sua finalità, in linea con la normativa vigente dell’Ue in materia di sicurezza dei prodotti. L’allegato III della proposta contiene già un elenco di sistemi classificati ad alto rischio, ed è previsto che la Commissione Europea possa ampliarlo, applicando di volta in volta la valutazione delle relative minacce. Vengono definiti i requisiti giuridici in relazione ai dati trattati e alla governance applicata per la loro documentazione e conservazione, nonché la trasparenza, la sorveglianza umana, la robustezza, l’accuratezza e la sicurezza del sistema. È prevista una valutazione di conformità e successiva certificazione, nonché un monitoraggio post commercializzazione e una banca dati dell’Ue per i sistemi ad alto rischio.
Siamo ancora lontani dall’avere acquisito certezze sull’utilizzo dell’intelligenza artificiale e probabilmente tutto questo sarà ancora di là da venire per anni, ma non v’è dubbio che l’IA costituisca una delle più grandi sfide che la società umana abbia mai affrontato: l’ennesima che anche il mondo assicurativo si trovi a sostenere.

© RIPRODUZIONE RISERVATA

Articoli correlati

I più visti