PROGETTO LAOCOONTE: A TU PER TU CON LUCIANO POLINARI, RESPONSABILE OPERATIONS & PRE SALES DEL GRUPPO ATUMTEK

Pubblicato: Dec 7, 2023

Atumtek Group è salita recentemente sul palco dell’Italian Insurtech Summit 2023 per ricevere il premio per la categoria AI Excellence Awards per il progetto Laocoonte. Di cosa si tratta?

«Il progetto Laocoonte, in tema di Artificial Intelligence, che abbiamo appena concluso dopo poco più di tre anni di lavoro, ha lavorato al design, sviluppo e testing di una piattaforma applicativa in ambito assicurativo e bancario, sanitario e industriale. Una piattaforma che consente di raccogliere e normalizzare i dati provenienti da data lake, data warehouse o da sensoristica IoT, per la costruzione di un modello di analisi in base all'offerta in oggetto, alla catena produttiva e/o alla strategia di business, così da guidare l'utente alla predisposizione del modello previsionale in base al processo che è necessario ottimizzare. Un progetto che ha avuto avvio grazie alla partecipazione ad un Bando di finanziamento del MISE per progetti innovativi in ambito Artificial Intelligence, in collaborazione con il proponente Energent, e in cui abbiamo messo la nostra decennale esperienza in tema di data governance, analytics e data mining».

Quale la fase propedeutica alla costruzione di questa piattaforma?

«In prima battuta abbiamo “costruito” un sistema informatico in versione prototipale che, principalmente, permettesse di: definire una metodologia innovativa per la classificazione semantica dei dati; identificare modelli di Machine Learningper i processi di business attraverso processi semplici e automatismi predittivi e, infine, che consente di qualificare e categorizzare la base dati utilizzata per la costruzione del modello, nonchè di survey di test dei modelli».

Il dato e le banche dati, dunque, sono il vero “oro nero”. Ma di quali dati parliamo e come “certificare” la riuscita del processo di AI?

«Tutto si gioca su alcune caratteristiche fondamentali che le banche dati devono possedere. Per prima cosa, il volume, occorre una mole di dati elevata da porre come base per l’allenamento del modello; poi, la velocità perché, se è importante poter fare affidamento su un numero elevato di dati, è altrettanto importante potervi accedere in modo veloce e tempestivo. E questa è una grande sfida, perché non solo i dati devono essere raccolti correttamente, ma vanno anche analizzati in tempi sempre più rapidi per poter diventare informazioni di valore in input a processi di AI. Occorre poi una varietà di dati, eterogenei per fonte di provenienza e per tipologia di formato, ma sempre inerenti al contesto che stiamo analizzando. Ecco un esempio: se volessi compiere un’analisi del rischio assicurativo, avrei bisogno di una base dati che comprende un’ampia varietà di sinistrosità su eventi diversi ma anche su altre dimensioni di analisi come la territorialità, le caratteristiche sociali ed economiche dei soggetti coinvolti, e così via; segue ovviamente la veridicitàdi questi dati, devono essere solidi e affidabili, soprattutto quando sono impiegati in grandi volumi e provengono da sorgenti e sistemi differenti. Infine, la variabilità, ovvero occorre possedere dati che possano cambiare di significato in base al contesto a cui si riferiscono, e che quindi vanno analizzati tenendo in considerazione le differenti possibili interpretazioni».

Tornando a Laocoonte, al sistema informatico in versione prototipale è seguita la trasformazione in una vera e propria piattaforma di machine learning. Come ci siete riusciti?

«Abbiamo “trasformato” i risultati ottenuti dai test in una piattaforma applicativa di machine learning, in un’ottica data-driven e incentrata sull’analisi predittiva, verticale sul business delle compagnie assicurative. Il sistema è focalizzato sulla collocazione dei prodotti e le inerenti problematiche, partendo dall’analisi dei bisogni e sulla segmentazione della clientela.  E qui torniamo a parlare di dati: siamo partiti dalle informazioni delle vendite già presenti nella compagnia, dei prodotti e dei clienti che hanno acquisito tali prodotti e abbiamo anche individuato i dati aggiuntivi non presenti nell’archivio a disposizione. Basandoci sulle caratteristiche anagrafiche, comportamentali, socioeconomiche, abbiamo delimitato dei profili di clientela(segmentazione) specifica per i prodotti di una compagnia assicurativa e da questa siamo partiti con il primo «use case» per il settore assicurativo: l’analisi del bisogno assicurativo, ovvero le esigenze di copertura assicurativa che garantiscano la protezione da eventi dannosi del potenziale cliente».

Quali sono stati i principali risultati ottenuti tramite l'applicazione di questi modelli?

«Abbiamo ottenuto un’evoluzione delle pratiche del settore insurance: il potenziale cliente, infatti, entrando in contatto con i canali distributivi di una compagnia assicurativa e rispondendo a poche e semplici domande - ad esempio dell’IDD -, fornisce tutte le informazioni necessarie affinché una piattaforma di machine learning, sulla base dei modelli definiti sui dati già presenti in compagnia, possa restituire in tempo reale l’offerta commerciale assicurativa che meglio si adatta alla persona che si ha di fronte».