Algoritmi data-intensive per contesti di valutazione e management del rischio

Responsabile della ricerca: Prof. Gabriele Di Stefano (DISIM)

 

I metodi algoritmici hanno raggiunto uno stato di maturità come conseguenza di decenni di ricerca in cui il mondo reale ha posto problemi alla comunità dei ricercatori innescando importanti sviluppi nel settore. Nonostante questo successo, lo stato attuale della ricerca algoritmica deve ancora affrontare situazioni estremamente complesse e applicazioni ad alta intensità di dati come quelle che si occupano di problemi di ottimizzazione e pianificazione nella prevenzione dei rischi e nella risposta immediata a eventi catastrofici. La complessità e le dimensioni di tali problemi pongono nuove sfide per la ricerca algoritmica e la loro soluzione efficiente richiede paradigmi fondamentali radicalmente nuovi.

Lo sviluppo della società attuale è caratterizzato dalla capacità di generare grandi volumi di dati ed informazioni che vengono quotidianamente acquisite e gestite in contesti applicativi specifici. Di grande interesse è come tali dati possano essere analizzati in modo da estrarre informazioni importanti per tutti quei contesti sia legati al mercato che all’amministrazione pubblica. Da operazioni sia non strutturate (e.g., navigazione sui social) che strutturate (e.g., generate da reti di sensori dislocati sul territorio) derivano enormi quantità di informazioni, che vanno filtrate, memorizzate ed elaborate utilizzando modelli ed algoritmi sia standard che specializzati.

Vari modelli esistono a supporto dell’esplorazione, validazione e analisi dei dati per aggiungere valore all’organizzazione degli stessi sia in termini di processo sia in termini di prodotto. Nonostante la grande capacità di calcolo tuttora disponibile e in continuo incremento, anche supportata dalle opportunità offerte dalle tecniche sviluppate nell’ambito del parallel computing, spesso il tempo necessario per eseguire i calcoli necessari per la soluzione ottima di un problema sono così grandi da rendere la soluzione – nella pratica – non ottenibile. Esistono tuttavia molteplici paradigmi di soluzione che affrontano le problematiche che possono nascere nei contesti applicativi: l’impossibilità di gestire i dati centralmente richiede l’uso di  algoritmi distribuiti; nel caso in cui i dati non sono tutti disponibili, ma vengono forniti man mano, si possono utilizzare gli algoritmi online,  la presenza di dati incerti può essere affrontata tramite algoritmi stocastici; la necessità di dover fronteggiare in modo “ragionevole” situazioni impreviste, è considerata nell’ambito degli algoritmi robusti; la necessità di adattarsi automaticamente ai cambiamenti dei dati in ingresso è approcciata dagli algoritmi dinamici, utilizzabili quando soluzioni a problemi non necessitano di essere calcolati da capo, ma possono essere trovate a partire da una soluzione parziale già esistente prima di un cambiamento; la possibilità invece di agire sui dati di ingresso ad un problema, qualora sia evidente che le soluzioni ammissibili non siano soddisfacenti, può essere affrontata nell’ambito degli algoritmi di ottimizzazione inversa.

Questi paradigmi di soluzione per problemi complessi trovano la possibilità di essere utilizzati in vari contesti data-intensive, tra cui recentemente, la gestione dei rischi (dovuti ad esempio a possibili eventi quali incendi, allagamenti, terremoti), la gestione delle attività di prevenzione e la gestione e il coordinamento delle risposte al verificarsi dell’evento.