Home > Blog > Intelligenza Artificiale al servizio delle persone

Intelligenza Artificiale al servizio delle persone

Mondo Verti

I cinque principi fondamentali per un approccio all’AI che mette le persone al centro e crea valore sostenibile

L’Intelligenza Artificiale sta portando una ventata di innovazione in ogni settore, compreso quello assicurativo, promettendo maggiore efficienza, decisioni più accurate e servizi personalizzati.

Ma come può un’azienda, assicurativa o meno, implementare l’AI in modo etico e responsabile, senza perdere di vista l’elemento umano? In Verti, ma con più ampia veduta in tutto il Gruppo MAPFRE, abbiamo sviluppato un approccio che, nel rispetto delle normative europee, abbraccia la trasformazione in modo consapevole, strutturato ed etico, per seguire dei principi fondamentali che crediamo debbano guidare l’adozione dell’AI con applicazioni concrete.

1. Il modello ibrido: quando uomo e macchina lavorano insieme

Il primo fondamento di un’implementazione efficace dell’AI consiste nell’adozione di un modello ibrido, in cui l’intelligenza artificiale potenzi – ma non sostituisca – le capacità umane.
Cosa significa a livello pratico?

L’AI dovrebbe essere vista come uno strumento di supporto per i professionisti del settore perché in grado di analizzare grandi quantità di dati, identificare tendenze e suggerire soluzioni, ma il giudizio finale deve sempre spettare all’essere umano che, proprio grazie all’AI ha nuovi strumenti di valutazione.

Per le compagnie assicurative, questo si traduce in un’opportunità di migliorare l’efficienza dei processi di sottoscrizione, gestione dei sinistri e assistenza clienti, pur mantenendo quel tocco personale che fa la differenza. Gli algoritmi potrebbero, ad esempio, analizzare rapidamente i documenti di un sinistro, ma sarà sempre un liquidatore esperto a valutare i casi più complessi o eccezionali.

Nel nostro modello, l’intelligenza artificiale funziona come un “copilota” per i professionisti, fornendo informazioni rilevanti per decisioni più consapevoli, ma lasciando sempre l’ultima parola agli esperti.

2. Uso responsabile: la governance come fondamento

Implementare l’AI senza una solida governance è come costruire una casa senza fondamenta. Un secondo principio essenziale riguarda quindi l’adozione di procedure di governance chiare e strutturate, coerenti anche con le normative europee.

Per sviluppare un sistema di governance efficace, è necessario:

  • allineare le iniziative di AI con gli obiettivi strategici dell’azienda
  • dare priorità alla qualità e alla governance dei dati
  • creare strutture organizzative dedicate alla supervisione delle iniziative di AI
  • stabilire meccanismi di controllo della qualità e revisione periodica

Un esempio concreto è la creazione di un “AI Center”, un hub centralizzato che coordini tutte le iniziative di intelligenza artificiale, garantendo coerenza, sicurezza e responsabilità in tutta l’organizzazione.

La qualità dei dati è un altro elemento cruciale: ricordiamo sempre che algoritmi sofisticati alimentati da dati di scarsa qualità produrranno inevitabilmente risultati inaffidabili. Per questo, investire nella pulizia, integrazione e governance dei dati è un prerequisito per qualsiasi iniziativa di AI di successo.

3. Etica e sicurezza: valori non negoziabili

L’adozione dell’AI pone inevitabilmente questioni etiche che non possono essere ignorate. Un terzo principio fondamentale riguarda quindi l’implementazione di misure per garantire che l’AI sia etica, trasparente, affidabile e sicura.

I punti chiave da considerare:

  • prevenzione dei bias e della discriminazione algoritmica
  • trasparenza nelle decisioni guidate dall’AI
  • protezione dei dati personali e della privacy
  • conformità normativa

Le compagnie assicurative che utilizzano l’AI per valutare i rischi, determinare i premi o gestire i sinistri devono assicurarsi che i loro algoritmi non perpetuino pregiudizi esistenti. Questo richiede un monitoraggio costante e test regolari per identificare e correggere eventuali distorsioni.

La trasparenza è altrettanto importante: i clienti hanno il diritto di sapere quando le decisioni che li riguardano sono influenzate da sistemi di AI e, in linea di principio, di comprendere la logica alla base di tali decisioni.

In Verti abbiamo implementato procedure normative per garantire che tutte le applicazioni di AI rispettino i principi etici e le normative europee, prevenendo discriminazioni e proteggendo le informazioni sensibili.

Un approccio di questo tipo non solo rafforza la fiducia dei clienti, ma anticipa anche requisiti normativi in via di sviluppo come il Regolamento europeo sull’IA.

4. Progresso costante: formare per il futuro

L’AI evolve rapidamente, e con essa devono evolvere anche le competenze delle persone che la utilizzano. Il quarto principio riguarda quindi l’investimento continuo nella formazione e nello sviluppo del personale.
Per creare una cultura aziendale che abbracci l’innovazione è quindi necessario:

  • sviluppare programmi di formazione specifici per diversi profili professionali
  • creare team multidisciplinari che combinino competenze tecniche e di business
  • incoraggiare l’apprendimento continuo e l’adattabilità
  • valorizzare e premiare l’adozione di nuove tecnologie

Le aziende che investono nella formazione del proprio personale sull’AI ottengono un duplice vantaggio: migliorano l’efficacia delle loro iniziative tecnologiche e preparano la loro forza lavoro per il futuro del settore.

È importante sottolineare che la formazione non dovrebbe limitarsi agli aspetti tecnici dell’AI, ma includere anche riflessioni su tutte le questioni etiche e considerazioni sul business. Tutti i dipendenti, non solo i tecnici, dovrebbero comprendere come l’AI può migliorare il loro lavoro e quali sono le implicazioni del suo utilizzo.

5. Sostenibilità: un’AI a servizio del pianeta e delle persone

Infine, un approccio responsabile all’AI deve considerare anche il suo impatto ambientale e sociale. Il quinto principio riguarda quindi l’allineamento delle iniziative di AI con gli obiettivi di sostenibilità.
In pratica, questo significa:

  • valutare l’impatto ambientale dei modelli di AI (in termini di consumo energetico)
  • considerare come l’AI possa contribuire agli obiettivi di sostenibilità dell’azienda
  • utilizzare l’AI solo quando realmente necessaria e appropriata
  • progettare soluzioni che creino valore per la società nel suo complesso
  • pensare a soluzioni che possano compensare l’impatto ambientale causato dall’utilizzo dell’AI

Non è un segreto che l’addestramento di modelli di AI complessi possa richiedere enormi quantità di energia. Le aziende dovrebbero quindi considerare l’impronta di carbonio delle loro iniziative di AI e cercare modi per mitigarla.

Allo stesso tempo, l’AI offre opportunità uniche per ottimizzare il proprio impatto in diversi ambiti e per promuovere la sostenibilità: può ottimizzare processi, ridurre gli sprechi e persino contribuire alla valutazione e mitigazione dei rischi climatici.

Verso un futuro in cui l’AI serve le persone

Il percorso verso un’AI etica e responsabile richiede impegno, risorse e una visione chiara.

Il modello che abbiamo adottato a livello di Gruppo MAPFRE, rappresenta una possibile best practice che altre aziende potrebbero considerare. Al centro di questo modello c’è una convinzione fondamentale: l’AI è uno strumento potentissimo, ma deve sempre essere al servizio delle persone, che queste siano clienti, dipendenti e la società nel suo complesso.

Le aziende che riusciranno a implementare l’AI seguendo principi etici non solo eviteranno i rischi e le criticità associate a questa tecnologia, ma creeranno anche un vantaggio competitivo sostenibile nel lungo periodo.