HEAT – Pilot XREL

Il gruppo di ricerca MUSE dell’Università degli Studi Roma Tre ha avviato il pilot XREL del progetto HEAT, coinvolgendo i primi utenti nella fase di testing per il caso d’uso Education. L’obiettivo è esplorare come le tecnologie immersive possano migliorare la didattica blended, consentendo a docenti e studenti di interagire in ambienti XR condivisi, sia in presenza che da remoto. Il pilot mira a sviluppare un ambiente di apprendimento immersivo e interattivo con coinvolgimento in tempo reale, valutando in particolare se l’integrazione di ologrammi live con ambienti statici aumenti l’engagement e se l’uso di stimoli multisensoriali, come feedback aptico e segnali olfattivi, possa migliorare apprendimento e soddisfazione.

Le tecnologie esplorate includono camere volumetriche, display olografici, visori XR, attuatori multisensoriali, contenuti sintetici e sistemi per la partecipazione remota. Il principale elemento innovativo risiede nell’interazione bidirezionale in tempo reale arricchita da feedback multisensoriali, che combina ologrammi e contenuti aumentati per una nuova esperienza di apprendimento blended.
Un ringraziamento va ai primi utenti coinvolti nei test e ai partner presenti al lancio presso l’Università degli Studi Roma Tre.

———————————————
The MUSE research group at Roma Tre University has launched the XREL pilot within the HEAT project, involving the first users in the testing phase for the Education use case. The pilot explores how immersive technologies can enhance blended learning by enabling teachers and students to interact within shared XR environments, both in person and remotely. Its goal is to develop an immersive and interactive learning environment that supports real-time engagement, while evaluating whether the integration of live holograms with captured static environments increases user engagement, and whether multisensory stimuli, such as haptic feedback and olfactory cues, can improve learning outcomes and overall satisfaction.
The technologies explored include volumetric cameras, holographic displays, XR headsets, multisensory actuators, synthetic content, and systems enabling remote participation. The key innovation lies in real-time bidirectional interaction enriched with multisensory feedback, combining holograms and augmented content to create a new generation of blended learning experiences. Special thanks go to the first testing users and to the partners who attended the launch at Roma Tre University.