Insurance Trade

L’impatto dell’intelligenza artificiale nel settore assicurativo

L’utilizzo sempre più ampio di sistemi di IA e di ML sta portando a una riflessione a livello politico sull’esigenza di adeguare la normativa a tutela in primo luogo dei cittadini. In parallelo, la rivoluzione operativa in atto nelle compagnie ha attivato l’attenzione anche degli istituti di vigilanza

L’impatto dell’intelligenza artificiale nel settore assicurativo hp_vert_img
L’intelligenza artificiale (IA) ha catalizzato un processo di trasformazione radicale in vari settori, e quello assicurativo non fa eccezione. Il recente successo di ChatGpt, sviluppato da OpenAI, ne è una chiara dimostrazione; con 100 milioni di utenti attivi registrati in soli due mesi dal lancio è diventata l’applicazione con la crescita più rapida nella storia di internet. 
Questa ondata rivoluzionaria ha sottolineato l’urgente necessità di adeguamento del quadro normativo, allo scopo di definire regole precise per la classificazione e l’impiego delle diverse tipologie di IA e per affrontare le questioni correlate alle responsabilità che possono derivare dal suo utilizzo, che non ha lasciato indifferenti le istituzioni europee.
Lato classificazione e impiego delle diverse tipologie di intelligenza artificiale, si segnala, infatti, il progetto dell’AI Act, nato nel 2021 e volto a tracciare linee guida chiare per la gestione delle IA, con l’obiettivo di salvaguardare i diritti dei cittadini e promuovere l’innovazione tecnologica in maniera responsabile e sicura.
In particolare, il Regolamento, la cui approvazione definitiva dovrebbe avvenire nel 2024 (nel 2026 la sua entrata in vigore) segue un approccio basato sul rischio, stabilendo obblighi per fornitori e utenti a seconda del livello di rischio che l’IA può generare.
Tra i capisaldi della norma troviamo i seguenti: 
classificazione dei sistemi di IA in relazione al livello di rischio (sistemi proibiti, ad alto rischio, a rischio limitato e minimo);
divieto per i sistemi con un livello di rischio inaccettabile per la sicurezza delle persone, compresi i sistemi che impiegano tecniche subliminali o manipolative, che sfruttano le vulnerabilità delle persone o sono utilizzati per il punteggio sociale;
ampliamento della classificazione delle aree ad alto rischio per includere i danni alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente, i sistemi di IA per influenzare gli elettori nelle campagne politiche e i sistemi di raccomandazione utilizzati dalle piattaforme social con oltre 45 milioni di utenti ai sensi del Digital Services Act;
rispetto da parte dei Generative foundation model come ChatGpt di ulteriori requisiti di trasparenza, tra i quali la comunicazione che il contenuto è stato generato dall’intelligenza artificiale, design del modello per impedire che generi contenuto illegale e pubblicazione dei riepiloghi dei dati protetti da copyright utilizzati per il training;
promozione dell’innovazione, attraverso l’introduzione di esenzioni per le attività di ricerca e incoraggiamento dell’uso di sandbox normative per testare l’IA prima del suo impiego effettivo;
rafforzamento dei diritti dei cittadini, consentendo loro di presentare reclami sui sistemi di IA e di ricevere spiegazioni per le decisioni basate su sistemi di IA ad alto rischio; l’Ufficio IA dell’Unione Europea avrà il compito di monitorare l’applicazione di queste regole.

VA ARMONIZZATA LA NORMATIVA SULLA RESPONSABILITÀ
Lato responsabilità, invece, l’attenzione è focalizzata sulla proposta di direttiva relativa alla responsabilità derivante dall’uso dei sistemi di intelligenza artificiale, nota come AI Liability Directive e sulla proposta di direttiva riguardante la responsabilità per i danni causati da prodotti difettosi, entrambe presentate dalla Commissione europea nel mese di settembre dello scorso anno.
L’obiettivo principale della prima proposta è quello di creare un sistema normativo armonizzato a livello europeo in materia di responsabilità civile per i danni causati dai sistemi di intelligenza artificiale. In particolare, la proposta si concentra sulle sfide specifiche legate alla prova del coinvolgimento di tali sistemi e mira a garantire una tutela adeguata a coloro che ne fanno uso, superando le barriere legali e anche di natura psicologica (mi posso fidare?), che possono ostacolare le richieste di risarcimento presentate dai danneggiati.
La seconda proposta riguarda, invece, la responsabilità per i danni derivanti da prodotti difettosi e punta a rinnovare le norme esistenti, risalenti al 1985, per far fronte ai prodotti e ai rischi dell’era digitale. 
Tra questi, si annoverano, ad esempio, l’autonomia e l’autoapprendimento propri dei sistemi di IA, che possono alterare il loro comportamento in modo imprevisto, nonostante non presentino difetti al momento della vendita. La proposta intende anche rendere meno gravoso l’onere della prova per la persona danneggiata, soprattutto quando è impossibile o difficile tracciare il processo decisionale di una macchina dotata di IA.

LA POSIZIONE DI EIOPA E IVASS
Le iniziative legislative che abbiamo appena citato si collocano in un contesto più ampio, nell’ambito del quale ve ne sono altre che hanno come focus il dato (ad es. il Data Act), il quale rappresenta la principale risorsa dell’industria assicurativa, sia nella sua accezione più tradizionale, sia in quella più innovativa (insurtech), dove concetti come open insurance, embedded insurance, blockchain e smart contract sono le parole d’ordine. 
Parole d’ordine che, unitamente alla rinnovata attenzione verso l’intelligenza artificiale, non hanno lasciato indifferenti le autorità di vigilanza comunitarie (Eiopa) e domestiche (Ivass). 
Si veda in tal senso il documento dell’Eiopa intitolato Verso un’intelligenza artificiale etica e affidabile nel settore assicurativo europeo del 2021, nonché le pubbliche consultazioni in materia di open insurance e blockchain e smart contract in ambito assicurativo, sempre del medesimo anno (i feedback alle reazioni degli stakeholder sono stati pubblicati nel 2022), nonché le considerazioni contenute nella prima relazione sull’applicazione della Direttiva Idd del 2022.
A tal proposito, è utile sottolineare come nell’ultimo documento citato, Eiopa abbia ricordato che, nonostante il cosiddetto Regolamento Ibips (cfr. art.12) preveda la possibilità di fornire consulenza sugli Ibips mediante l’utilizzo di sistemi automatizzati e semiautomatizzati, mancano regole specifiche per i robo advisor, nel senso che non ci sono indicazioni specifiche su come le disposizioni dell’Idd dovrebbero essere rispettate da questi ultimi (una per tutte la tematica in materia di demand and need test).

NECESSITÀ DI TRASPARENZA PER L’UTENTE
È stata rilevata, poi, una mancanza di trasparenza per i consumatori sul fatto che stiano interagendo con una macchina e se vengono utilizzati sistemi di riconoscimento basati su dati biometrici.
Da non dimenticare, poi, l’attenzione al fenomeno da parte dell’Ivass, tra le cui iniziative si segnala l’indagine del giugno 2022 sull’utilizzo dell’AI e del machine learning (ML) da parte delle compagnie di assicurazione italiane. 
Interessanti al proposito i risultati, in base ai quali il 43% delle compagnie intervistate fa uso di una qualche forma di IA, e il 27% utilizza almeno un algoritmo di ML nei processi che implicano effetti diretti sulla clientela (quota di mercato del 78% nel comparto danni e del 25% nel comparto vita).
Alla luce di quanto abbiamo detto, l’auspicio è quello che l’attivismo che sta caratterizzando l’operato del legislatore europeo nel campo dell’intelligenza artificiale e in quello delle responsabilità ad essa connesse possa contagiare anche il settore assicurativo, con l’adeguamento della normativa di settore, una fra tutte quella relativa al comparto della distribuzione, fondato su una Direttiva Idd che, a detta della stessa Eiopa, è bisognosa di un restyling per stare al passo con la digitalizzazione. 
Il tutto senza dimenticare il ruolo fondamentale della vigilanza, chiamata, insieme al legislatore, ciascuno nel proprio ambito, a governare il fenomeno, tenendo in considerazione gli interessi dei diversi soggetti coinvolti, ovvero gli attori del mercato e i clienti, tra i quali anche i consumatori.

© RIPRODUZIONE RISERVATA

Articoli correlati

I più visti