Grazie all'analisi dei dati provenienti da svariati tipi di sensori che possono essere installati nell'ambiente e/o sui comuni dispositivi mobili (come smartphone e smartwatch) è possibile riconoscere in modo automatico le attività svolte dalle persone. Gli algoritmi di riconoscimento di attività sono solitamente basati su tecniche di machine learning. Mentre queste tecniche permettono di ottenere un riconoscimento accurato, non forniscono una spiegazione human-readable alle inferenze prodotte dal sistema. Ottenere una spiegazione comprensibile dall'uomo su come mai il sistema ha riconosciuto una particolare attività ha un duplice scopo: aiutare i data scientist nel comprendere meglio il modello di riconoscimento durante la sua costruzione e allo stesso tempo per fornire servizi context-aware più trasparenti e più raffinati. Nell'ambito dell'health-care, ad esempio, il continuo monitoraggio delle attività svolte da un paziente è utile per comprendere il suo stato di salute. Un sistema di riconoscimento di attività più trasparente permetterebbe quindi di comprendere a pieno (ad esempio a medici) il motivo dettagliato del comportamento di un paziente monitorato. Recentemente, sta emergendo una nuova categoria di algoritmi di machine learning chiamata Explainable Artificial Intelligence (XAI). Gli algoritmi di XAI permettono di ottenere modelli di machine learning capaci di "spiegare" ogni predizione ottenuta dal sistema. Lo scopo di questa tesi è quindi quello di progettare, implementare e valutare una tecnica di riconoscimento di attività umane innovativa basata su XAI.

Tesi per laurea magistrale

Progettazione, implementazione e testing di algoritmi di XAI per human activity recognition.

Requisiti: buone capacità di programmazione, machine learning, (opzionale) logica

 

Tesi per laurea triennale

Nell'ambito dell'argomento generale sopra riportato, la tesi include i seguenti task:

- Studio dello stato dell'arte e dei lavori finora realizzati dal laboratorio in questo ambito

- Estensione del meccanismo di generazione delle spiegazioni nel prototipo realizzato dal laboratorio. (per esempio, considerando le relazioni temporali tra le azioni svolte dall'utente che giustificano la predizione di una attività come riconosciuta dal sistema). 

Requisiti: buone capacità di programmazione, (opzionale) machine learning/artificial intelligence

 

Per ulteriori informazioni rivolgersi a Claudio Bettini o Gabriele Civitarese.