Profil du membre

Bloc de couleur vert.
Richard Nguyen
Mon poste
Candidat au doctorat
Date d'arrivée au DOMUS
2020-09-01
Direction
Charles Gouin-Vallerand
Titre du sujet de recherche
Ma thèse de doctorat en informatique a pour but d’intégrer les objets physiques dans les interactions avec les mains et le contenu virtuel affiché dans les casques de réalité mixte pour sortir du paradigme WIMP (Window, Icon, Menu, Pointer) que l’on connaît sur les ordinateurs traditionnels.
Sujet de recherche
Je me place pour ce projet de recherche dans le contexte de l’aide à la tâche d’assemblage en milieu industriel. Dans ce projet qui croise les interactions humain-machine et l’intelligence artificielle, je réponds à trois questions : Quelles sont les exigences et les limitations techniques pour implémenter des interactions en réalité mixte qui intègrent des objets physiques en main ? Comment les objets physiques dans les mains peuvent s’intégrer et/ou compléter les interactions actuelles en réalité mixte ? Quelles sont les bonnes et mauvaises pratiques pour concevoir des interactions POST-WIMP qui incluent un objet dans les mains ? Pour répondre à ces questions, j’ai deux objectifs qui décrivent un changement de l’interaction avec la réalité mixte impliquant un objet physique en main. Le premier objectif est de prendre en considération l’objet en main dans les interactions actuelles avec les mains (suivi en temps réel et reconnaissance de geste). La limitation principale pour atteindre cet objectif est l’occlusion entre la main et l’objet. Le second objectif est d’associer différents comportements sur l’application selon l’objet dans la main reconnu : les gestes autorisés, les fonctionnalités déclenchées et les interfaces utilisateur; selon l’outil utilisé et ses propriétés. Par exemple, lorsque l’utilisateur utilise un pinceau, un menu de couleur s’affiche et lui permet de changer la couleur d’un hologramme en peignant sa surface. Ces deux objectifs nécessitent la création de données annotées pour l’entraînement des algorithmes d’apprentissage et l’évaluation des interactions implémentées dans des scénarios pratiques pour déterminer l’utilisabilité et l’utilité de ceux-ci.
L'Image présente deux personnes portant des casque Hololens en train de travailler ensemble sur de la réalité mixte.
Il y a 2 années

One of the best ways to build better vision models is to train large models on big datasets. However, the process of building such datasets is often costly and tedious. With the ever increasing adoption of Mixed Reality in professional settings, and with the performance improvements of headsets in recent years, we see an opportunity for a tool that combines data collection and annotation in a single process, and that leverages both RGB and depth data provided by the headset sensors. Moreover, assisting machine learning predictive models with user inputs through natural mixed reality interactions is a promising prospective for human-artificial intelligence interactions. In this paper, we present MRLabeling, an application developped for the Microsoft Hololens 2 that allows the easy creation and annotation of datasets directly in Mixed Reality. We first describe the design of the system, the way 3D bounding boxes drawn by the user are projected in 2D to create annotated images on the fly, and the use of segmentation algorithms to go beyond bounding boxes. After that, we explore the use of depth data, and the current limitations of the system, as well as avenues for future work.

L'Image présente deux personnes portant des casque Hololens en train de travailler ensemble sur de la réalité mixte.
Il y a 3 années

Mixed reality has made its first step towards democratization in 2017 with the launch of a first generation of commercial devices. As a new medium, one of the challenges is to develop interactions using its endowed spatial awareness and body tracking. More specifically, at the crossroad between artificial intelligence and human-computer interaction, the goal is to go beyond the Window, Icon, Menu, Pointer (WIMP) paradigm humans are mainly using on desktop computer. Hand interactions either as a standalone modality or as a component of a multimodal modality are one of the most popular and supported techniques across mixed reality prototypes and commercial devices. In this context, this paper presents scoping literature review of hand interactions in mixed reality. The goal of this review is to identify the recent findings on hand interactions about their design and the place of artificial intelligence in their development and behavior. This review resulted in the highlight of the main interaction techniques and their technical requirements between 2017 and 2022 as well as the design of the Metaphor-behavior taxonomy to classify those interactions.

Bloc de couleur vert.

Nous trouver

2500 bd de l’université

Sherbrooke, QC J1K 2R1

Notre courriel

Notre téléphone

Logo du Laboratoire Domus de l'Université de Sherbrooke.

Copyright © 2023, Laboratoire Domus