Progetto HEAD con l'Università di Trieste

AMO_UNITS
Accessibilità via MObile di servizi on line per utenti di UniTS attraverso interfacce vocali innovative

Obiettivi

L'obiettivo principale del progetto è sviluppare la conoscenza sulle tecnologie e le metodologie che permettono lo sviluppo di interfacce vocali. Sta aprendosi infatti l'era delle "Conversational User Interface" (CUI) che offre molti vantaggi e possibilità rispetto alle tradizioni "Graphic User Interface" (GUI) in quando possono essere utilizzate in condizioni "non tradizionali" come la guida, i sistemi domotici e così via. Le CUI sono molto interessanti anche per i disabili sensoriali: non-vedenti e ipo-vedenti possono, grazie alle CUI, utilizzare sistemi informatici complessi.

Più in particolare, l'obiettivo del progetto è quindi di unire le conoscenze teoriche dell'Università (sia in termini tecnologici che di analisi dei bisogni e UX, user experience) con la conoscenza applicata dell'azienda legata al mondo delle interfacce dialoganti e delle applicazioni digitali per i disabili, al fine di creare protocolli di sviluppo da testare subito su una realizzazione pratica e utile: rendere accessibili ai non-vedenti le applicazioni web utilizzate dagli studenti e dai dipendenti dell'Università di Trieste.


Risultati attesi

I risultati attesi del progetto sono l'individuazione di tecnologie e di metodologie utili per la realizzazione di Conversational User Interface (CUI) in grado di aiutare gli utenti ciechi o ipo-vedenti nella fruizione dei servizi web in generale e di quelli dell'Università di Trieste in particolare.

Sarà quindi possibile creare un prototipo avanzato di Conversational User Interface puramente audio che, attraverso un flusso ottimizzato di dialogo, sia in grado di rendere disponibili webservice come per esempio:

  • accesso al libretto elettronico per il controllo della posizione (ESSE3);
  • accesso alla posizione tasse (ESSE3);
  • accesso alla prenotazione esami (ESSE3);
  • accesso al cartellino elettronico (U-GOV);
  • accesso al registro docente (U-GOV);
  • lettura/scrittura/gestione messaggi di posta elettronica (WEBMAIL).

I risultati del progetto permetteranno di affrontare con le Conversational User Interface sistemi digitali più complessi e di offrire alle persone con disabilità sensoriale nuove autonomie e operatività.


Il cronoprogramma del progetto

Il progetto ha una durata prevista di 18 mesi, così distribuiti:

  1. Costruzione di un Living-lab per la raccolta delle esigenze delle persone - in particolare degli utenti con disabilità - e la validazione degli output di progetto. Selezione assegnista di ricerca.
  2. Esplorazione, studio e comparazione delle soluzioni esistenti sia in termini tecnologici che di metodologia della progettazione. In termini tecnologici vengono determinate le tecnologie NLU e NLP più efficaci e accessibili, i sistemi di comprensione audio e sintesi vocale, i sistemi di API più sviluppati.
  3. Studio degli applicativi universitari e analisi dei principali flussi di lavoro. In questa fase vengono analizzate e scomposte le principali funzionalità dei servizi web universitari (piattaforma ESSE3). Se possibile vengono evidenziate e studiate le API di questi sistemi.
  4. Progettazione di un flusso di lavoro puramente vocale e testing. Trasformazioni dei processi con modalità GUI in processi con modalità CUI. Sviluppo di un prototipo funzionale che sia in grado di testare i dialoghi (in questa fase anche solamente scritti) e la UX.
  5. Individuazione della tecnologia e della metodologia di sviluppo ottimale. In funzione delle necessità e del testing effettuati nei mesi precedenti, si individuano le tecnologie e le metodologie ottimali per sviluppare le interfacce vocali delle fase successive. Studio delle piattaforme selezionate.
  6. Sviluppo di un prototipo di interfaccia vocale su uno o più servizi web universitari. Nella pratica si tratta di sviluppare una app in grado di gestire, utilizzando solamente un dialogo (scritto o vocale), alcune funzionalità avanzate negli applicativi ESSE3, U-GOV e WEBMAIL.
  7. Testing con utenti tipo, acquisizione ed elaborazione feedback. Il prototipo avanzato, sviluppato nella fase precedente, viene testato con degli utenti reali sia normodotati che ipo e non-vedenti. Attraverso l'osservazione dei pattern di uso, delle difficoltà e dei blocchi nell'utilizzo puramente vocale, è possibile modificare e ottimizzare sia gli aspetti tecnologici che di usabilità.
  8. Finalizzazione dell'applicazione. Documentazione finale.
  9. Disseminazione dei risultati.

Gli attori e il contesto

Il progetto è sviluppato da Kapamo srls, http://www.kapamo.org, in collaborazione con l'Universita' di Trieste, http://www.units.it, grazie al finanziamento del progetto HeaD ("HEaD HIGHER EDUCATION AND DEVELOPMENT", Università di Trieste OPERAZIONE 2 (Codice operazione FP1619892003, canale di finanziamento 1420AFPLO2)).

Il progetto fa riferimento all'area di specializzazione Smart Health e alla traiettoria di sviluppo Ambient Assisted Living, che recita: "La traiettoria comprende l'insieme di soluzioni tecnologiche sia indoor che outdoor destinate a rendere attivo, intelligente e cooperativo l'ambiente di vita della persona sia nella collettività che nell'individualità, efficace nel sostenere la vita indipendente, capace di fornire maggiore sicurezza, semplicità, benessere e soddisfazione nello svolgimento delle attività della vita quotidiana per il miglioramento della salute della persona, dell'assistenza, del benessere e comfort e per la gestione e l'ottimizzazione della sicurezza negli spazi indoor e outdoor"


Per ulteriori informazioni

  • Prof. Sergio Carrato, carrato@units.it
  • Dr. Roberto Gilli, dialobot@gmail.com