Argomento 1: Explainable Activity Recognition

Tesi per laurea magistrale

Grazie all'analisi dei dati provenienti da svariati tipi di sensori che possono essere installati nell'ambiente e/o sui comuni dispositivi mobili (come smartphone e smartwatch) è possibile riconoscere in modo automatico le attività svolte dalle persone. Gli algoritmi di riconoscimento di attività sono solitamente basati su tecniche di machine learning. Mentre queste tecniche permettono di ottenere un riconoscimento accurato, non forniscono una spiegazione human-readable alle inferenze prodotte dal sistema. Ottenere una spiegazione comprensibile dall'uomo su come mai il sistema ha riconosciuto una particolare attività ha un duplice scopo: aiutare i data scientist nel comprendere meglio il modello di riconoscimento durante la sua costruzione e allo stesso tempo per fornire servizi context-aware più trasparenti e più raffinati. Nell'ambito dell'health-care, ad esempio, il continuo monitoraggio delle attività svolte da un paziente è utile per comprendere il suo stato di salute. Un sistema di riconoscimento di attività più trasparente permetterebbe quindi di comprendere a pieno (ad esempio a medici) il motivo dettagliato del comportamento di un paziente monitorato. Recentemente, sta emergendo una nuova categoria di algoritmi di machine learning chiamata Explainable Artificial Intelligence (XAI). Gli algoritmi di XAI permettono di ottenere modelli di machine learning capaci di "spiegare" ogni predizione ottenuta dal sistema. Lo scopo di questa tesi è quindi quello di progettare, implementare e valutare una tecnica di riconoscimento di attività umane innovativa basata su XAI. 

Requisiti: buone capacità di programmazione, machine learning, (opzionale) logica

Per ulteriori informazioni rivolgersi a Claudio Bettini o Gabriele Civitarese.