Conférenciers invités

Doug Bowman (Viginia Tech.)

Simulating Mixed Reality Systems to Evaluate the Effects of Display Fidelity

Abstract :

One of the most important challenges facing the field of mixed reality (including virtual and augmented reality) is providing empirical evidence of the benefits of advanced MR systems. Despite the compelling nature of many MR experiences, we really know very little about the impact of different display fidelity factors on task performance, spatial understanding, and subjective user experience. However, designing experiments to measure these effects is not trivial. In particular, experiments that directly compare actual MR systems are extremely limited in their explanatory power and generalizability. To avoid these issues, we propose the use of MR simulation, in which a single high-end VR system is used to simulate the display characteristics of many MR systems. In this talk, I will describe a number of experiments we have already completed using the MR simulation approach, and some thoughts on how the concept of MR simulation fits into a broader theoretical framework for MR systems.

Bio :

Doug A. Bowman is an Associate Professor of Computer Science at Virginia Tech, where he directs the 3D Interaction Research Group and is a member of the Center for Human-Computer Interaction. He was also a visiting researcher at UC Santa Barbara in the 2008-09 academic year. His research interests include 3D user interfaces, interaction techniques for virtual environments, the benefits of immersion in VR, and large high-resolution displays. He is a co-author of the book « 3D User Interfaces : Theory and Practice, » and was awarded a National Science Foundation CAREER grant for his work on domain-specific 3D user interfaces. He has served as the General Chair of IEEE Virtual Reality, and was one of the founding co-chairs of the IEEE Symposium on 3D User Interfaces. Bowman received his MS and PhD in Computer Science from the Georgia Institute of Technology.

Paul Milgram (Istituto Italiano di Tecnologia - Genova & Department of Mechanical and Industrial Engineering - University of Toronto)

Un cadre conceptuel pour caractériser les interactions en environnements réels et/ou virtuels - Atelier « Réalité Mixte, Téléopération et Facteurs Humains »

Résumé :

La communauté de chercheurs en « Réalité Virtuelle, Augmentée, Mixte et d’Interaction 3D » (y compris l’AFRV) croit généralement qu’on se comprend quant aux thèmes et domaines d’application dont on s’occupe. Il reste néanmoins le défi d’identifier ce qui est commun (ou convergences) entre applications diverses, ainsi que les différences parmi les projets qui semblent être analogues. En la matière, de nombreuses taxonomies ont été proposées pour caractériser les différences existantes, par exemple, en termes de le degré de fidélité, de ratio entre réel et virtuel, de sensation de présence, de modalités de présentation, etc.

Afin d’identifier ces convergences – et surtout les convergences significatives – il faut reconnaître que la diversité d’interactions entre un utilisateur et des objets dans son monde (soit réel soit virtuel) est grande, permettant une variété importante d’options pour manipuler ces objets et pour présenter les résultats, et ce en fonction du temps, de l’espace, de la proximité, et du système de coordonnées. Tandis qu’on s’accorde à reconnaitre qu’un grand nombre de métaphores d’interaction peut être facilement mise en œuvre dans un environnement virtuel, la puissance des outils modernes de traitement d’images nous permet aussi aujourd’hui d’accroitre considérablement la souplesse de présentations indirectes (par exemple par vidéo) des interactions dans les environnements réels. Autrement dit, les caméras ont évolué d’un œil simple sur les mondes réels (éloignés) en un instrument capable d’intégrer et d’interpoler des images aussi bien spatialement que temporellement et ce en temps réel.

Dans ce contexte, nous proposerons un cadre pour classifier et caractériser des interactions quelconques de manipulation qui impliquent une présentation visuelle. Ce cadre comprend l’identification des éléments principaux des interactions dans l’environnement, du point de vue des couplages entre les composants, où la configuration et les caractéristiques des couplages qui s’établissent entre les canaux d’interaction visuelle et manuelle familiers aux utilisateurs. Ce cadre conceptuel est indépendant de l’application et du domaine, et a pour but de servir non seulement à la classification des opérations actuelles en Environnements Réels et/ou Virtuels, mais aussi à l’établissement des thèmes futurs de recherche.

Bio :

Paul Milgram is both a Professor in the Mechanical and Industrial Engineering Department at the University of Toronto, as well as being cross-appointed to the Institute of Biomaterials and Biomedical Engineering. At present he is also a Visiting Professor at the Italian Institute of Technology in Genova. (When he is not on research leave), he teaches courses in engineering psychology and analytical research methods in human factors. His research focus is on display, control, and navigation issues in 3D (mixed reality) environments, with application areas encompassing surgery, telerobotics, and automobile driving.

Before joining UofT in 1986, Paul Milgram worked for 4 years as a senior human factors research engineer at the National Aerospace Laboratory, in Amsterdam. Prior to that, he was a post-doctoral researcher for 2 years at the TNO Institute for Perception, in Soesterberg, Netherlands. He has spent four research leaves abroad : at ATR in Kyoto, Japan (1993-94), at the Centre d’Etudes de la Navigation Aérienne (CENA), in Toulouse, France (1999-2000), at the Universitat Politécnica de Catalunya in Barcelona (2004), where he has carried out research respectively on mixed reality, air traffic control, augmented reality driving simulation. Following his stay at IIT Genova, he will be a Visiting Professor at the Indian Institute of Technology in Madras (Chennai) India, for the first half of 2011. In the 1980’s, Paul Milgram developed the PLATO visual occlusion spectacles, and his company, Translucent Technologies, currently provides these worldwide, for research on, among other things, automobile interface design, visual perception, psycho-motor coordination, sports medicine, neurological disorders, and cognitive sciences.