CES 2026 Innovation Awards : quand l’immersif devient physique, tactile… et vraiment formateur

Les CES Innovation Awards ont ceci d’intéressant : ils mettent souvent en lumière des produits qui sortent du statut de “démo de salon” pour se rapprocher d’usages professionnels crédibles. Dans la catégorie XR & Spatial Computing 2026, un fil rouge ressort nettement : la XR n’est plus seulement visuelle. Elle devient physique (dans le corps et dans l’espace), tactile, et plus facilement collective — trois ingrédients qui parlent directement aux équipes formation.

“Physical learning” : concrètement, ça veut dire quoi ?

Le terme peut sembler flou. Dans la sélection 2026, il renvoie à une idée simple : apprendre par l’action, avec le corps et/ou des objets réels, plutôt que “consommer” un contenu sur écran.

L’exemple le plus parlant est SPORTRACK, distingué en XR & Spatial Computing : un jeu de plateau XR conçu pour se pratiquer en espace ouvert, à plusieurs, avec des missions “full-body” (mouvements, défis coopératifs), sans enfermer l’expérience dans un casque.

Transposé à la formation en entreprise, le “physical learning” devient très concret :

  • Ateliers de résolution de problème : une équipe manipule un support physique (plateau, maquette, cartes, pièces) pendant que des repères 3D apparaissent (hypothèses, flux, risques rappelés, paramètres qui changent).
  • Exercices de coordination / crise : on rejoue un scénario (incident qualité, panne critique, afflux patient, rupture de stock) avec des objets et des rôles tangibles — et l’XR sert de couche de “mise à jour” (contraintes, nouvelles informations, temps qui passe).
  • Apprentissages terrain : on apprend dans un espace réel (atelier, salle technique, salle de soins), avec un guidage spatial plutôt qu’un cours “hors sol”.

En clair : “physical learning” = pédagogie par le geste + collaboration en présence, augmentées par des éléments XR.

Lunettes “optical see-through” : la formation bascule vers le compagnonnage augmenté

Côté matériel, XREAL Project Aura est distingué en XR & Spatial Computing, présenté comme un dispositif optical see-through conçu pour Android XR et “Gemini AI-powered”. Dans le même palmarès, Galaxy XR figure aussi comme produit récompensé en XR & Spatial Computing.

Leur point commun, côté usages L&D : ils collent aux scénarios où la formation est indissociable du réel :

  • Guidage pas à pas (check-lists, couples de serrage, points de contrôle).
  • Télé-assistance : un expert à distance qui “voit” ce que voit le technicien et peut annoter/guider.
  • Shadowing (compagnonnage) : un apprenant suit un tuteur en situation, avec des repères qui sécurisent l’exécution.

On n’est plus dans “faire un module XR”. On est dans rendre l’apprentissage possible pendant l’activité, sans interrompre complètement la production.

“Physical AI” : entraîner des robots en virtuel… et standardiser des gestes humains

Dernier signal, plus inattendu : Haply est aussi distingué en catégorie IA pour HARP (Human Advanced Robotics Platform), un framework associé au contrôleur Inverse 3X, avec une promesse très orientée capture de mouvement et téléopération/entraînement robot.

Pour la formation, l’idée n’est pas de “former des robots”, mais ce que cela sous-entend : le geste devient une donnée. On peut capturer ce qu’est un “bon geste”, le comparer, le rejouer, et s’en servir comme base de correction ou de standardisation — ce qui ouvre des perspectives sur les métiers où la variabilité d’exécution coûte cher (qualité, sécurité, maintenance).

Ce que ce palmarès change dans la façon de concevoir une formation XR

Ce que racontent ces Innovation Awards 2026, c’est moins “un nouveau casque” que de nouveaux formats pédagogiques :

  • plus collectifs (ateliers augmentés plutôt qu’expériences solo),
  • plus ancrés dans le corps (apprendre en bougeant / en manipulant),
  • plus sensibles au geste (haptique, précision),
  • plus proches du terrain (optical see-through et compagnonnage).

 

Autrement dit : la XR devient intéressante non pas quand elle “immerge”, mais quand elle rend les compétences répétables, observables et transférables.

Pour la formation, l’idée n’est pas de “former des robots”, mais ce que cela sous-entend : le geste devient une donnée. On peut capturer ce qu’est un “bon geste”, le comparer, le rejouer, et s’en servir comme base de correction ou de standardisation — ce qui ouvre des perspectives sur les métiers où la variabilité d’exécution coûte cher (qualité, sécurité, maintenance).

3 formats XR concrets à tester en 2026

  • Un atelier “physical learning” en présentiel augmenté (45–60 min)

Objectif : entraîner la prise de décision et la coordination (qualité, sécurité, diagnostic, gestion d’incident).
Format : une équipe autour d’un support physique (plateau, cartes, maquette, process imprimé). L’XR ajoute des couches “vivantes” : alertes, données qui évoluent, contraintes temps réel, conséquences des choix.
À la fin : un debrief collectif avec 2–3 enseignements opérationnels et une trace simple (niveau de maîtrise, points de vigilance, décisions clés).

  • Un entraînement “geste critique” avec retour tactile (20–30 min + répétitions)

Objectif : standardiser un geste précis (réglage, trajectoire, couple, séquence) et sécuriser l’exécution.
Format : simulation XR + interface haptique (retour de force) pour ressentir résistance, contact, précision. On répète jusqu’au seuil attendu.
À la fin : un score de maîtrise exploitable (erreurs de séquence, temps, précision) + une recommandation de consolidation (micro-répétition à J+7).

  • Un compagnonnage augmenté sur le terrain (2 semaines)

Objectif : accélérer l’autonomie sur poste et réduire les erreurs en situation réelle.
Format : lunettes MR/AR ou casque MR léger : check-lists, points de contrôle, guidage pas-à-pas et, si besoin, télé-assistance (un expert “voit” et annote).
À la fin : validation progressive des compétences (paliers) + réduction mesurable des reprises / non-qualités / appels au support.

 
La règle d’or : Chaque format doit viser un indicateur métier (autonomie, erreurs, incidents, qualité), pas “l’engagement”. Sinon, on retombe dans le POC.

IA & immersive learning : du scénario généré à la preuve de maîtrise

Le CES 2026 ne pose plus la question “IA ou XR ?”. Il met en scène leur convergence : d’un côté, des expériences immersives plus “situées” (lunettes, mixed reality, spatial computing) ; de l’autre, une IA qui devient moteur pédagogique : adaptation en temps réel, feedback contextualisé, analyse de traces et recommandations. Plusieurs sessions CES portent explicitement cette hybridation “AI x Spatial Computing”, et la programmation XR/Spatial Computing insiste sur des usages orientés productivité et apprentissage.

Pour les équipes L&D, l’enjeu n’est plus de “faire de la VR”, mais de rendre la compétence plus pilotable : mieux cibler ce qui doit être entraîné, accélérer la production de contenus, et produire des indicateurs de maîtrise exploitables.

L’IA qui “habite” la simulation : personnaliser sans complexifier

Dans un module immersif classique, tout est écrit d’avance : scénarios, réactions, critères. L’IA change l’économie du dispositif en permettant une variation contrôlée.

  • Adaptation en temps réel : la simulation ajuste le niveau de difficulté selon les performances. Un apprenant qui hésite obtient une aide (indices, rappel de procédure, visualisation d’un risque). Un apprenant à l’aise bascule vers des cas plus ambigus ou plus contraints (pression temporelle, incidents simultanés, variables parasites).
  • Feedback plus “métier” : on ne se limite plus au “bon / pas bon”. L’IA peut formuler un retour de type tutorat : ce qui a été fait, ce qui a été oublié, dans quel ordre, et pourquoi ça compte.

Le CES met aussi l’accent sur l’IA “praticable” via des formats d’appropriation concrets : les CES AI Trainings (nouvelle initiative 2026, en partenariat avec Modev) illustrent cette logique “passage à l’action” plutôt que démonstration.

De la “trace” à l’insight : l’IA comme moteur de learning analytics immersif

Le vrai saut, côté L&D, n’est pas seulement l’interaction : c’est la capacité à transformer les traces XR en éléments lisibles.

Dans une session immersive, on peut capter : séquence d’actions, hésitations, erreurs récurrentes, temps de réaction, choix, voire respect des règles (ordre de consignation, points de contrôle, décisions sous stress). L’IA intervient alors à deux niveaux :

  • Structurer le débrief : générer un compte rendu exploitable (points forts / points à travailler / risque majeur / recommandation de consolidation).
  • Alimenter les parcours : recommander automatiquement une remédiation (micro-module MR sur site, répétition VR ciblée, coaching terrain, revue de procédure).

Exemple type (industrie) : une simulation sécurité où l’IA repère des oublis récurrents (EPI, mauvaise priorité, confusion “arrêt machine / consignation”), puis déclenche un correctif très court en MR sur poste, au moment où le geste est réellement réalisé.

L’IA qui “habite” la simulation : personnaliser sans complexifier

Le vrai saut, côté L&D, n’est pas seulement l’interaction : c’est la capacité à transformer les traces XR en éléments lisibles.

Dans une session immersive, on peut capter : séquence d’actions, hésitations, erreurs récurrentes, temps de réaction, choix, voire respect des règles (ordre de consignation, points de contrôle, décisions sous stress). L’IA intervient alors à deux niveaux :

  • Structurer le débrief : générer un compte rendu exploitable (points forts / points à travailler / risque majeur / recommandation de consolidation).
  • Alimenter les parcours : recommander automatiquement une remédiation (micro-module MR sur site, répétition VR ciblée, coaching terrain, revue de procédure).

Exemple type (industrie) : une simulation sécurité où l’IA repère des oublis récurrents (EPI, mauvaise priorité, confusion “arrêt machine / consignation”), puis déclenche un correctif très court en MR sur poste, au moment où le geste est réellement réalisé.

De la personnalisation à la co-conception : l’IA comme “accélérateur de production”

Autre bascule : l’IA ne sert pas uniquement à coacher l’apprenant, elle sert aussi à produire.

  • Scénarios et variantes : générer rapidement des déclinaisons (panne machine, dialogue client, incident HSE, crise managériale) tout en gardant des critères d’évaluation stables.
  • Items d’évaluation : produire des checklists, grilles d’observation et questions de débrief cohérentes avec les objectifs.
  • Base d’assets : accélérer la création d’un socle (dialogues, brief/debrief, scripts) que le studio/les formateurs “éditorialisent” et sécurisent.

Ce point est clé pour la scalabilité : la XR a longtemps été freinée par son coût de production. L’IA peut réduire ce goulot… à condition d’avoir un cadre qualité (revue pédagogique, validation métier, garde-fous).

Exemple CES : Firsthabit (CHALK AI / CHALK 4.0), la logique “IA d’abord” appliquée à l’apprentissage

Firsthabit illustre bien la tendance “IA au cœur du learning”, avec CHALK AI qui a reçu deux CES 2026 Innovation Awards (catégories Artificial Intelligence et Education Technology), et l’annonce d’une présentation/officialisation de CHALK 4.0 au CES 2026.

Ce que l’entreprise met en avant : une approche dite “Visual LLM” appliquée à l’éducation, avec un apprentissage fondé sur la visualisation, l’interactivité et la personnalisation, et des interactions 3D.

Même si l’exemple est “edtech”, la logique intéresse les entreprises : rendre la personnalisation industrialisable et outiller les formateurs via des tableaux de bord et des parcours adaptatifs.

CHALK 4.0 (Firsthabit) en 4 points
 
  • Un tuteur IA “visuel” : CHALK 4.0 se présente comme un visual chatbot capable d’expliquer non seulement par le texte, mais en dessinant et manipulant des représentations (formules, schémas, graphes, visualisations 3D).
  • Un cours conversationnel : l’expérience est pensée comme une “conversation lecture” : l’apprenant interrompt, questionne, reformule, et l’IA adapte l’explication au fil de l’échange.
  • Deux usages clés : un mode “compréhension” (explication guidée, souvent présenté comme cinematic learning) et un mode “entraînement” orienté résolution de problèmes.
  • Personnalisation en temps réel : la plateforme met en avant l’adaptation continue du parcours selon les difficultés rencontrées et les réponses de l’apprenant.

Reconnaissance CES 2026 : CHALK AI a reçu deux CES 2026 Innovation Awards (catégories AI et Education Technology), et Firsthabit communique sur le lancement/présentation de CHALK 4.0 au CES 2026.

CES 2026 : la formation immersive sort du POC pour entrer dans les parcours compétences

En 2026, la formation n’est plus un sujet périphérique au CES : IA, XR (VR, MR, AR) et “spatial computing” sont présentés comme des leviers directs de performance, au même niveau que le cloud ou la cybersécurité. Pour les directions formation, le message est clair : on passe du “proof of concept” aux dispositifs immersifs conçus pour s’intégrer dans la vraie vie de l’entreprise, et produire des résultats observables.

De la démo “wahou” à la brique d’infrastructure

Pendant des années, les expériences VR/AR présentées au CES faisaient dire “waouh”, mais on voyait mal comment les brancher sur le quotidien d’une usine, d’un réseau de magasins ou d’un hôpital. En 2026, la XR est décrite comme une brique opérationnelle au même titre qu’un LMS, un outil de visio ou une plateforme de collaboration.

Les conférences dédiées au spatial computing insistent d’ailleurs sur la logique de résultats mesurables : réduction d’erreurs, baisse d’incidents, montée en compétences accélérée, meilleure préparation avant passage au réel.
Autre signal : les solutions XR se pensent “connectées” par défaut, avec des intégrations attendues vers les systèmes existants (LMS/LXP, SIRH/skills, analytics, plateformes industrielles, jumeaux numériques).

Exemple concret : Samsung Heavy Industries utilise le Galaxy XR pour former ses ingénieurs à la construction navale en environnement virtuel, avec les résultats qui remontent directement dans les outils de suivi compétences.

Pour un service formation, cela signifie que la question n’est plus “faut‑il tester la VR ?”, mais où et comment l’insérer dans la chaîne compétences–performance, et comment en exploiter les preuves.

La montée en puissance du spatial computing

Le spatial computing, ce n’est pas seulement “de l’AR qui affiche des flèches”. L’idée est plus large : des contenus numériques (objets 3D, repères, instructions, tableaux de bord) placés et manipulés dans l’espace, en VR, MR ou AR, pour apprendre au plus près du geste, du lieu et du contexte.

Au CES 2026, cette notion sert de langage commun qui unifie VR, MR, AR et devices portés au visage. Google, Samsung et d’autres acteurs structurent des écosystèmes complets autour d’Android XR, des casques Galaxy XR et de nouveaux usages “face computing”.

Les sessions “XR edge” et “spatial computing” montrent comment ces technologies deviennent des outils de travail pour les opérateurs, ingénieurs, techniciens ou managers, pas seulement pour le divertissement.

Exemples concrets :

·        Google Android XR : visualisation de concepts mathématiques ou scientifiques en 3D (comme avec Gemini qui explique une équation en la “peignant” dans l’espace), idéal pour l’éducation ou la formation technique.

·        Samsung Galaxy XR : un technicien voit des instructions de maintenance apparaître sur la vraie machine en MR, guidé pas à pas sans manuel papier.

Pour les projets de digital learning, cela renforce la logique “bon mode pour le bon usage” : VR pour l’immersion profonde, MR pour la co‑présence et l’ancrage terrain, AR pour le support à la tâche et le micro‑learning in situ.

IA + XR : le nouveau duo de la formation

L’IA est omniprésente au CES 2026, mais ce qui intéresse vraiment la formation, c’est sa rencontre avec la XR. On ne parle plus seulement de chatbots, mais d’IA qui vient “habiter” les expériences immersives.

Trois apports se détachent, très “RH/compétences” :

  • Personnaliser la mise en situation. Dans une simulation de relation client, l’IA peut jouer un client serein, pressé, agressif ou méfiant, et réagir en temps réel. Deux apprenants ne vivent plus exactement la même scène ; le niveau peut s’ajuster progressivement.
  • Accélérer la conception. L’IA aide à produire plus vite des variantes (scénarios, dialogues, embranchements, items d’évaluation), tout en laissant au formateur/studio la main sur l’intention pédagogique et la qualité.
  • Passer de la complétion à la maîtrise. En simulation technique, on peut analyser la séquence d’action, les hésitations, les oublis, le temps, et générer un debrief structuré : points forts, points à consolider, niveau de maîtrise par compétence.

Les programmes “CES AI Trainings” et les initiatives orientées éducation AI montrent que l’enjeu n’est pas seulement de “faire de la VR”, mais de brancher ces expériences à des parcours personnalisés, pilotés par les données.

Des cas d’usage de plus en plus mûrs

Les cas d’usage mis en avant au CES sortent clairement de la phase “expérimentation sympathique”. On voit se stabiliser trois grandes familles directement exploitables en formation:

  • Simulation métier et sécurité: entraînement aux gestes techniques, procédures à risque, interventions sur équipements rares, souvent couplés à des jumeaux numériques de sites, d’usines ou d’hôpitaux. L’apprenant “s’entraîne en numérique” avant de toucher au réel.
  • Assistance en situation de travail: MR/AR pour afficher instructions, checklists, tutoriels pas à pas ou assistance distante dans le champ de vision de l’apprenant. On est à la frontière entre formation, support à la performance et documentation opérationnelle.
  • Apprentissage collaboratif étendu: réunions, ateliers, revues de projet ou brainstorming en environnements spatiaux partagés, avec manipulation d’objets 3D, maquettes, datas. On ne remplace pas la salle de réunion, on l’étend : une équipe éclatée géographiquement peut se retrouver autour du même “objet” ou du même “jumeau numérique”.

Pour les directions formation, la question devient moins “quelle techno choisir ?” que “sur quels segments de notre catalogue ces cas d’usage apportent le meilleur ROI (sécurité, production, maintenance, soft skills critiques, onboarding…) ?”.

Ce que les directions formation peuvent faire dès 2026

Face à ces signaux, trois priorités claires se dégagent pour les équipes L&D et les responsables digital learning :

  1. Cibler des “moments métiers” à enjeu. Identifier 2–3 situations où l’écart de compétence coûte vraiment (incident sécurité, non-qualité, erreur de diagnostic, interaction client critique, geste rare). Construire autour un dispositif complet : mise en situation, critères de réussite, brief/debrief, consolidation, accompagnement managérial.
  2. Préparer l’infrastructure
    Vérifier la compatibilité avec les nouveaux écosystèmes (multi‑casques, Android XR, solutions MR/AR), prévoir les connecteurs LMS/LXP, et décider quelles données issues des simulations seront réellement exploitées (scores, erreurs, temps, comportements).
  3. Structurer une gouvernance “immersive learning”
    Associer L&D, DSI, métiers et innovation pour éviter l’empilement de solutions isolées. L’objectif : construire une stratégie cohérente où la VR, la MR et l’IA ne sont pas des jouets, mais des briques alignées sur les priorités business et compétences.

On le voit : le vrai sujet n’est pas la XR. C’est la capacité à rendre la montée en compétences plus prévisible : prise de poste plus rapide, mobilité interne facilitée, gestes critiques sécurisés, savoir-faire mieux transféré. Le CES 2026 ne fait que rappeler une évidence : quand l’IA et l’immersif sont reliés aux parcours et aux données compétences, la formation redevient un enjeu de performance et de talents.

Formation à la conduite de grues MMA : le simulateur VR conçu par Audace pour Orano

Les Visites Décennales (VD) des réacteurs nucléaires mobilisent chaque année des équipes hautement qualifiées pour réaliser des opérations de maintenance de grande précision. Parmi elles, le montage, la qualification et l’utilisation des Moyens de Manutention Autonomes (MMA) jouent un rôle déterminant lorsque le pont polaire est arrêté.

Pour accompagner la formation des opérateurs d’Orano DS, Audace a conçu un simulateur de conduite et de montage de grue MMA en réalité virtuelle. Un outil de formation sur mesure, immersif, sécurisant et surtout capable de reproduire fidèlement les gestes métier à l’aide d’un boîtier de commandes réel.

Un simulateur VR embarqué et opérationnel sur Meta Quest 3

Le dispositif fonctionne sur un casque Meta Quest 3 en PC-VR autonome et multicast, connecté à un boîtier de pilotage réel permettant de manipuler la grue comme sur le terrain.

L’utilisateur évolue dans une réplique numérique fidèle du chantier. 
Équipé du casque VR, il peut manipuler les équipements, monter la structure, régler les niveaux, exécuter des vérifications ou piloter la grue dans des conditions optimales d’apprentissage.

En parallèle, une tablette virtuelle accompagne l’apprenant tout au long du scénario : elle permet d’afficher l’inventaire des équipements, de faire apparaître les outils nécessaires, de consulter les instructions pas à pas ou encore de valider des étapes clés. Véritable assistant numérique embarqué, elle structure la progression de l’utilisateur et fluidifie l’ensemble de l’expérience.

Reproduire un montage complet de la grue MMA : un défi pédagogique

Le cœur du projet repose sur la reconstitution pas à pas de toutes les étapes du montage de la grue MMA, depuis la préparation du matériel jusqu’à la sécurisation finale.

Ce scénario particulièrement exigeant mobilise des dizaines d’actions réelles : mise en place de la sous-structure, déploiement des bras, vérification des niveaux, transfert et positionnement, installation des contrepoids, montage de la grue, mise en place des accès, installation de la passerelle, etc.

Dans certaines phases du montage, les opérateurs doivent intervenir en hauteur, notamment pour installer les accès ou manipuler la passerelle.
La réalité virtuelle leur permet non seulement de répéter les gestes techniques en toute sécurité, mais aussi d’expérimenter leur propre appréhension de la hauteur — un facteur essentiel en environnement réel.
La VR recrée fidèlement les plateformes, les points d’appui et les sensations de vide, offrant à l’apprenant l’occasion de se familiariser avec ces situations sensibles avant d’y être confronté sur le terrain.

Les points forts du simulateur

Ce nouveau simulateur de conduite d’engin conçu par Audace permet un apprentissage progressif, reproductible à l’infini et parfaitement sécurisé, là où les conditions réelles peuvent être coûteuses, rares ou dangereuses. Il offre notamment :

  • une immersion réaliste dans les environnements CP0 et CPY,
  • des scénarios guidés avec possibilité d’avances rapides pour le formateur,
  • des interactions simples et intuitives grâce au laser, à la capture d’objets et à la tablette virtuelle,
  • un entraînement sans risque sur des gestes critiques ou en situation de hauteur,
  • une montée en compétence accélérée et homogène pour l’ensemble des opérateurs.

Un outil immersif au service de la performance industrielle

Avec ce simulateur MMA, Orano DS et Audace démontrent une nouvelle fois la capacité de la réalité virtuelle à transformer des procédures complexes en expériences pédagogiques accessibles, sûres et engageantes. En reproduisant fidèlement les environnements industriels, les gestes métier et les contraintes opérationnelles, la VR devient un levier puissant pour renforcer la maîtrise technique, la sécurité et la qualité des interventions.

D’autres simulateurs immersifs développés pour Orano

La formation à la conduite de grues MMA s’inscrit dans un programme plus global de dispositifs de formation immersive conçus par Audace pour accompagner Orano dans le développement des compétences et la sécurisation des gestes professionnels en environnement industriel à risques.

Découvrez également d’autres simulateurs immersifs réalisés pour le groupe Orano :

  • Simulateur de conduite de ponts polaires
    Un simulateur VR adapté à l’industrie nucléaire pour l’apprentissage et l’entraînement à la conduite de ponts polaires, renforçant les compétences des pontiers avant formation sur engin réel ou en recyclage.

  • Simulateur de calage, d’arrimage et d’élingage de charges
    Un simulateur de formation en réalité virtuelle dédié aux actions de calage, d’arrimage et d’élingage de charges, permettant aux techniciens de manutention de s’entraîner à des scénarios variés en toute sécurité.

  • Simulateur d’aspiration de corps migrants en piscine nucléaire
    Une solution immersive, connectée à un dispositif réel (manche d’aspiration), pour former les opérateurs à l’aspiration des corps migrants en fond de piscine nucléaire, via des scénarios réalistes qui articulent procédures, gestes techniques et gestion des aléas en environnement nucléaire.

Vous souhaitez en savoir plus ou imaginer votre propre simulateur métier ?

Nos équipes sont à votre écoute pour accompagner vos projets de formation innovants.

La réalité mixte en action chez Audace : trois terrains, trois preuves

Au-delà des promesses, la réalité mixte se mesure à l’épreuve du terrain. Trois cas emblématiques menés par Audace — TSO, Ineris, Orano — montrent comment la MR complète la VR : gestes réels mieux perçus, collaboration plus fluide, apprentissages plus rapides. Retour d’expérience

TSO — Voir ses mains… et le vrai pupitre : un POC qui change l’entraînement

Contexte et objectif

Pour la conception d’un simulateur de conduite de bourreuse, TSO souhaitait vérifier un point précis : la MR peut-elle rendre l’entraînement VR plus naturel en permettant à l’apprenant de voir ses mains réelles et le jumeau du poste de commande physique pendant la simulation ?

Approche

Audace a conçu un POC MR couplé à une application VR : le casque filme le monde réel (pupitre, mains, leviers) et le réaffiche dans la simulation, avec superposition des repères de formation.

TSO - Simulateur de bourreuse - régaleuse

Pourquoi c'est clé ?

En VR “fermée”, certains gestes fins sont moins spontanés (repérage des manettes, mémorisation des positions). En MR pass-through, l’apprenant voit son pupitre et exécute ses gestes au bon endroit.

Résultat

Le POC valide l’hypothèse : la MR améliore la précision gestuelle et la transposition du geste vers le réel. TSO a opté pour la MR pour visualiser le pupitre réel et les mains de l’apprenant dans son simulateur (en cours de développement).

Enseignements

  • La MR complète la VR : on garde l’immersion, mais on restaure la proprioception (mains, volumes, résistances).
  • L’adoption grimpe quand le dispositif respecte les repères physiques du métier.

Ineris — Inspection d’équipements électriques en VR et en MR

Objectif

Former à l’inspection d’équipements électriques en environnement ATEX (atmosphères explosives) sans risquer la sécurité.

Solution Audace

Un simulateur bimodal (VR et MR) sur Meta Quest 3 : une dizaine d’équipements à inspecter, avec défauts à identifier, consignes et validation pas à pas.

  • Mode VR : l’équipement est placé dans un environnement virtuel fidèle, pour l’immersion et la compréhension du contexte.
  • Mode MR : l’équipement se superpose à l’environnement réel de l’apprenant. Il peut le déplacer/faire tourner librement, rester proche de son formateur, prendre des notes sur papier et limiter le risque de cinétose (nausée liée à la locomotion VR).
Ineris - Inspection de boîtier en réalité virtuelle
Ineris - Inspection de boîtier en réalité mixte

Impact observé

  • Pédagogie : en VR, on comprend le contexte ; en MR, on ancre le geste dans la pièce réelle et on facilite l’interaction pédagogique (formateur présent, échanges, prises de notes).
  • Confort : en MR, moins de fatigue pour les profils sensibles à la locomotion VR ; l’accessoire papier reste possible.

Bonnes pratiques

  • Prévoir des scènes courtes et une alternance VR/MR selon l’objectif (comprendre → VR ; pratiquer/lister → MR).
  • En MR, privilégier des repères de qualité (étiquettes, zones chaudes) lisibles en pass-through.

Orano — POC MR multiutilisateurs : voir, manipuler, décider ensemble

Objectif

Montrer ce que la MR permet à plusieurs autour d’un modèle 3D détaillé (un EMEM, équipement de maintenance).

Fonctions démontrées (multi-site ou co-localisé).

  • Connexion à une même session, avatars, voix en direct.
  • Manipulations synchronisées : prise/déplacement de pièces, vue éclatée, mise en surbrillance, dessin 3D dans l’espace.
  • Lecture d’un mode opératoire étape par étape.
  • Partage de la vue réelle d’un utilisateur pour contextualiser la discussion.
  • Sauvegarde/chargement d’une session de travail.

Usages visés

Formation (geste et nomenclature), planification d’opérations (implantation, accès, sécurité), assistance à distance (expertise partagée).

Orano - POC d'un équipement de maintenance en réalité mixte

Enseignements

  • La MR réduit le “coût de coordination” : tous voient et agissent sur le même modèle, au même moment.
  • Les fonctions “vue éclatée + surbrillance” servent d’outil de langage commun (maintenance, production, HSE).
  • Le multisite est crédible si le réseau est propre (latence stable) et si les modèles 3D sont optimisés.

Ce que ces trois cas disent de la MR… et d’Audace

1. MR = complément de la VR.

  • VR pour l’immersion et les scénarios intégralement simulés.
  • MR pour ancrer le geste dans le réel, garder mains/repères/pupitre, collaborer sans s’isoler.

2. Le duo “contenus + matériel” fait la réussite.

  • Scénarios brefs, lisibles, réutilisables ; casques autonomes en priorité pour le terrain.
  • Tests 30 minutes en conditions réelles (lumière, EPI, bruit) → adoption opérateur.

3. Mesurer vite, décider simple.

  • Un irritant métier par pilote (ex. erreurs d’inspection, temps d’arrêt).
  • Avant/Après sur 4–6 semaines ; go/no-go clair.

A lire ensuite...

Réalité mixte & Numérique responsable : méthode simple, résultats mesurables

La réalité mixte peut améliorer sécurité, qualité et délais… tout en alourdissant l’empreinte numérique si le déploiement n’est pas cadré. L’objectif n’est pas de freiner l’usage, mais de viser le juste nécessaire : plus de valeur métier, moins de ressources consommées.

Le cadre : utilité d’abord, frugalité ensuite

La règle est simple : l’utilité métier (erreurs, arrêts, déplacements) doit couvrir l’empreinte induite (matériel, énergie, réseau, stockage). Cela suppose de cibler un irritant mesurable, de limiter l’outillage au besoin réel et de comparer des chiffres avant/après sur une période courte.

Matériel : durer plus, acheter moins

  • Réparabilité & support : pièces et batteries disponibles ; mises à jour de sécurité ≥ 36 mois.
  • Standards : compatibilité OpenXR pour réutiliser les contenus.
  • Parc raisonné : mutualisation, reconditionnement, filière DEEE tracée.

Contenus sobres, lisibles, réutilisables

  • Budgets graphiques raisonnés (polygones, textures), fovéation (technique qui détaille finement au centre du regard et moins en périphérie) quand disponible.
  • Réutilisation d’assets/gabarits ; versioning clair.
  • Mises à jour groupées (delta‑updates, compression), cache hors‑ligne.

Énergie & réseau : placer le calcul au bon endroit

  • Rendu local par défaut ; edge/PC sur site si modèles lourds ; cloud distant seulement si la valeur est avérée.
  • Réseau maîtrisé (Wi‑Fi bien couvert / 5G privée) ; veille et extinction automatiques activées.
  • Latence : viser un délai bas et régulier ; sinon, les repères « flottent » et la précision chute.

Données : utile et proportionné

  • Par défaut : enregistrement vidéo désactivé ; activation au cas par cas.
  • Rétention courte ; chiffrement en transit/au repos ; journalisation sobre.
  • RGPD : finalités explicites, droits d’accès, anonymisation quand possible.

Méthode express (5 étapes, sans usine à gaz)

  1. Cibler un irritant clair : un indicateur métier facile à mesurer (temps de réparation, erreurs d’assemblage, déplacements d’experts).
  2. Choisir un binôme usage/matériel : un cas d’usage, un casque réparable/supporté, contenus simples et réutilisables, rendu local par défaut.
  3. Piloter en court (4–6 semaines) : un site, une équipe pilote, créneau réseau vérifié ; MDM/EMM « light » (kiosque, mises à jour, chiffrement).
  4. Mesurer peu, mais bien :
    Bénéfices : erreurs ↓, arrêts ↓, déplacements ↓ (CO₂e si possible)
    Empreinte : kWh/session, poids moyen d’une scène, rétention (jours)
  5. Décider simplement :
    Go élargi si bénéfice > empreinte et si kWh/session et Mo/scène s’améliorent
    • Sinon : alléger contenus, rapprocher le calcul (edge/local), renforcer le réseau, puis retester 2–3 semaines

A retenir

Un projet MR « responsable » est un projet cadré et mesuré : des gains visibles (sécurité, qualité, délais, TRS/OEE) et une empreinte qui diminue au fil des itérations.

Réalité mixte : ce qui nous attend d’ici cinq ans

Moins de prototypes, plus d’intégrations. Les cinq prochaines années devraient ancrer la MR dans les métiers de terrain, portée par des casques plus confortables, une aide logicielle plus intelligente et des liaisons réseau plus fiables.

Des casques plus discrets, plus endurants

Les optiques progressent, les écrans gagnent en netteté : la lecture de petits schémas devient moins fatigante. Le poids se répartit mieux ; l’autonomie progresse. Surtout, la “vision caméra” du réel gagne en naturel : couleurs fidèles, faible délai, meilleure tenue en lumière difficile.

Une assistance utile, pas envahissante

L’intelligence artificielle n’a pas vocation à remplacer l’opérateur. Elle l’aide : signaler une anomalie visible, proposer l’étape suivante, dicter un compte rendu, résumer une intervention. Par souci de confidentialité, une partie des traitements restera sur site, sans sortie d’images vers l’extérieur.

Une assistance utile, pas envahissante

L’intelligence artificielle n’a pas vocation à remplacer l’opérateur. Elle l’aide : signaler une anomalie visible, proposer l’étape suivante, dicter un compte rendu, résumer une intervention. Par souci de confidentialité, une partie des traitements restera sur site, sans sortie d’images vers l’extérieur.

Des ponts plus simples avec les logiciels métier

Formation, maintenance, logistique, qualité : les connecteurs se généralisent. Objectif : éviter la double saisie, récupérer automatiquement preuves et validations, suivre la progression. La gestion de flotte (mises à jour, comptes, sécurité) s’industrialise au même rythme que pour les smartphones.

Où le marché va-t-il croître ?

Dans l’entreprise, d’abord : industrie, énergie, santé, construction, logistique. Partout où une erreur coûte cher ou un déplacement prend des heures, le retour sur investissement est visible. Côté grand public, la progression sera plus lente et s’appuiera sur des lunettes plus légères et des services utiles au quotidien.

Une méthode qui évite les impasses

Les projets qui durent ont trois points communs : un irritant mesurable choisi au départ (ex. MTTR), un pilotage IT clair (gestion de flotte, sécurité, réseau), et un pipeline de contenu capable de mettre à jour les procédures sans friction. POC court, pilote mesuré, déploiement par étapes — avec revue systématique des résultats.

A lire ensuite...

Casques MR : les bons conseils pour choisir sans se perdre

Le “bon” casque dépend moins des mégapixels que du contexte d’usage : atelier, entrepôt, hôpital, bureau d’études. Affichage, capteurs, confort, réseau et intégration SI : ce qu’il convient d’examiner, puis un aperçu des principaux modèles.

Ce qui compte vraiment (et comment l’évaluer sans se tromper)

Affichage : voir net… longtemps

La définition “sur le papier” ne suffit pas. Les critères déterminants au quotidien sont :

  • Netteté utile : lecture d’un schéma dense, d’un couple de serrage en petits caractères, d’un repère de plan. Test pertinent : une notice en police 9–10 pts doit rester lisible sans effort prolongé.
  • Stabilité de l’image : lors des mouvements de tête, l’overlay doit rester parfaitement aligné à l’objet, sans flottement.
  • Couleurs et dynamique : lisibilité maintenue en atelier sombre, sous néons ou en forte luminosité.
  • Fatigue visuelle : au-delà de 30 minutes, absence de gêne oculaire ou de scintillement perceptible.

À tester : lecture de petits textes ; superposition millimétrée sur une pièce réelle ; alternance sombre/clair.
Vigilance : un rendu flatteur en salle de démo ne préjuge pas du confort en environnement industriel.

Capteurs : ancrage fiable, gestes reconnus

La MR repose sur la cartographie 3D de l’environnement. Points clés :

  • Ancrage : une annotation posée sur une vanne doit rester au même endroit dans le temps et être cohérente pour plusieurs utilisateurs.
  • Suivi du regard : utile pour sélectionner sans cliquer et pour concentrer la netteté là où se porte l’attention, y compris avec lunettes correctrices.
  • Suivi des mains : suffisant pour pointer et saisir ; recours aux manettes pour les gestes très précis ou en faible luminosité.

À tester : dépôt d’un « post-it virtuel » puis retour différé ; rotations répétées et contrôle de la dérive ; comparaison main nue vs gants fins.
Vigilance : environnements très mobiles (palettes, chariots) → prévoir marqueurs ou recalibrages périodiques.

Puissance de calcul : embarquée, PC ou « bord de réseau »

Trois architectures dominent :

  • Embarquée (autonome) : déploiement simple, adaptée à la majorité des usages terrain ; limites sur les modèles 3D très lourds.
  • PCVR (PC obligatoire/optionnel) : pertinente pour le rendu riche (CAO détaillée, jumeaux numériques), avec contrainte câble ou Wi-Fi très stable.
  • Edge/Cloud rendering : calcul externalisé et image “streamée” ; efficace à condition que le délai de bout en bout reste bas et régulier (rendu/streaming + réseau), faute de quoi les repères “flottent” et la précision chute.

À tester : un modèle 3D issu de l’activité réelle, avec 2–3 utilisateurs simultanés.
Vigilance : le cloud ne compense pas un Wi-Fi/5G locale insuffisamment maîtrisé.

Réseau : l’invisible décisif

Pour la télé-expertise et le rendu distant, la stabilité prime sur le débit théorique :

  • Wi-Fi d’atelier : cartographier les zones mortes et la charge aux heures de pointe.
  • 5G privée / QoS : utile sur grands sites ou pour des flux vidéo multiples.
  • Hors-ligne : procédures en cache, traces stockées puis synchronisées.

À tester : appel d’assistance aux extrémités du site ; envoi différé d’un enregistrement.
Vigilance : proxys, VLAN, certificats — impliquer l’IT dès le cadrage.

Confort, hygiène, sécurité : la réalité du poste

Au-delà du poids, la répartition des masses conditionne le confort.

  • Confort dynamique : stabilité lors de mouvements, accroupissements, inclinaisons.
  • Port prolongé : absence de gêne cervicale ou frontale à 30 minutes.
  • Hygiène : mousses lavables, consommables d’hygiène, gestion multi-utilisateurs.
  • Compatibilité EPI : visières, bouchons, casquettes, lunettes correctrices — à vérifier en conditions réelles.
  • Environnements spéciaux : poussières, ATEX, températures extrêmes — coques/housses ou procédures dédiées.

À tester : micro-mission terrain de 20–30 minutes.
Vigilance : un dispositif convaincant sur 5 minutes peut devenir pénalisant sur une séquence complète d’assemblage.

Intégration SI : du prototype à la flotte

Sans gestion de flotte, les pilotes restent isolés.

  • Mobile Device Management (MDM) / Enterprise Mobility Management (EMM) : inventaire, mises à jour, “kiosque” applicatif, effacement à distance.
  • Sécurité : SSO, certificats, chiffrement, politiques d’enregistrement et de journalisation.
  • Connecteurs : LMS (formation), GMAO (maintenance), WMS (logistique), QMS (qualité) pour éviter la double saisie.
  • Traçabilité : localisation et gouvernance des photos/vidéos/validations, droits d’accès et durées de conservation.

À tester : création automatisée d’un compte, publication d’une procédure, remontée d’une preuve dans un outil métier.
Vigilance : définir le run (rôles, SLA, gestion des incidents) avec DSI et métiers.

À retenir : le bon casque est celui des postes réels

La sélection doit s’appuyer sur : confort à 30 minutes, lisibilité des documents métier, stabilité des repères dans les ateliers et simplicité d’exploitation (MDM, mises à jour, connecteurs). Un modèle “très puissant” mais mal intégré ou mal accepté ne délivrera pas la valeur attendue.

Mini-checklist d’achat

  • Autonomie : autonome requis / PCVR accepté.
  • Usage principal : formation in situ / maintenance / contrôle / logistique / revue d’implantation.
  • Tests : 30 minutes en conditions réelles avec contenus internes.
  • SI : MDM, SSO, politiques d’enregistrement, connecteurs (LMS, GMAO, WMS, QMS).
  • Réseau : zones critiques évaluées, mode hors-ligne prévu.
  • TCO : casques + accessoires (batteries, hygiène, coques) + licences + support.

Principaux casques MR (2025)

Autonome = fonctionne sans PC. PCVR = peut (ou doit) utiliser un PC. Affichage : pass-through (vidéo du réel) / see-through (visière transparente).

Apple Vision Pro

  • Autonomie : Autonome (batterie externe) ; pas de PC requis.
  • Affichage : pass-through couleur.
  • Usages visés : démonstrations haut de gamme, collaboration, visualisation fine.
  • + : image très détaillée, suivi du regard excellent, écosystème soigné.
  • : prix, poids sur longues sessions, préparation IT (comptes, gestion de flotte) indispensable.

Meta Quest 3 / 3S

  • Autonomie : Autonome ; PCVR possible (câble/wi-fi).
  • Affichage : pass-through couleur.
  • Usages visés : formation mixte VR+MR, usages généralistes.
  • + : bon rapport qualité/prix, catalogue large.
  • : rendu moins fin que le haut de gamme ; gestion de flotte à soigner.

Varjo XR-4 (gamme)

  • Autonomie : PC requis (PCVR).
  • Affichage : pass-through très haute qualité.
  • Usages visés : design/simulation, entraînement critique.
  • + : définition et caméras de référence.
  • : coût d’acquisition et PC puissants ; intégration à prévoir.

Magic Leap 2

  • Autonomie : Autonome (boîtier de calcul déporté).
  • Affichage : see-through (visière transparente).
  • Usages visés : lunettes légères en industrie/santé.
  • + : confort, gestion de la luminosité, port prolongé.
  • : champ de vision plus restreint que les casques pass-through ; catalogue plus réduit.

HTC Vive XR Elite / Focus Vision

  • Autonomie : Autonome ; PCVR possible.
  • Affichage : pass-through couleur.
  • Usages visés : parcs mixtes VR+MR, besoin PCVR ponctuel.
  • + : format compact, mode PCVR.
  • : rendu MR correct sans viser l’ultra haut de gamme, autonomie moyenne.

Pico 4 Ultra Enterprise

  • Autonomie : Autonome ; PCVR selon configuration.
  • Affichage : pass-through couleur.
  • Usages visés : formation, déploiements à coût contenu.
  • + : prix compétitif, fonctions entreprise.
  • : support et écosystème variables selon régions ; intégration SI à valider.

Lenovo ThinkReality VRX

  • Autonomie : Autonome ; PCVR possible.
  • Affichage : pass-through couleur.
  • Usages visés : parcs gérés en environnement Lenovo.
  • + : support/MDM orientés entreprise.
  • : optiques et confort à évaluer selon les postes.

A lire ensuite...

Usages de la réalité mixte : l’heure des preuves sur le terrain

La MR a quitté le stade des démonstrations pour s’installer au poste de travail. Formation, maintenance, contrôle qualité, logistique : les cas d’usage s’étoffent et livrent des gains concrets. Tour d’horizon, sans esbroufe, avec les conditions de réussite.

Se former là où l’on agit

Première évidence : l’apprentissage est plus efficace sur l’équipement. Casque en place, l’opérateur suit des étapes courtes ; les repères apparaissent au bon endroit ; la validation se fait au regard ou à la voix. En fin de parcours, les preuves (photos, temps, niveau atteint) rejoignent l’outil de formation. Résultat observé : moins d’erreurs au démarrage, montée en compétence accélérée.

Dépanner plus vite, à distance si nécessaire

En maintenance, la MR réduit les allers-retours. La procédure s’affiche dans le champ de vision, collée à la machine. En cas de doute, un expert se connecte, voit ce que voit le technicien et dépose une annotation qui reste “posée” sur la bonne vanne. Les temps d’immobilisation fondent, tout comme les déplacements.

Contrôler la qualité sans perdre de temps

Comparer une pièce à son modèle de référence, colorer les écarts, générer un mini-rapport photo : la MR transforme une inspection en routine rapide. Les écarts entre opérateurs diminuent, la charge documentaire aussi.

Assembler juste du premier coup

Dans l’assemblage, l’erreur coûte. La MR affiche la bonne référence, l’orientation et, si besoin, la valeur de serrage. Le changement de série s’en trouve fluidifié et le TRS progresse (TRS, Taux de Rendement Synthétique, = Disponibilité × Performance × Qualité). La règle d’or reste la sobriété : une consigne claire vaut mieux qu’un affichage bavard.

Prévoir avant de percer le premier trou

La revue d’implantation à l’échelle 1 s’impose. Poser virtuellement une machine dans l’atelier, vérifier les accès, marcher dans les flux : cette étape évite les reprises chantier et facilite l’adhésion des équipes production-maintenance-HSE.

Guider la préparation de commandes

En entrepôt, la MR indique l’allée, le bac, valide le prélèvement par scan ou photo. Les erreurs reculent, la formation des saisonniers raccourcit. Le bénéfice tient à la précision de la cartographie et à l’intégration avec la gestion d’entrepôt.

Sécurité : des messages plus concrets

Parcours d’évacuation, rappel des EPI, zones interdites matérialisées : la MR rend visibles des règles parfois abstraites. Là aussi, l’efficacité vient de la mise en situation plutôt que de la théorie.

Réussir un premier déploiement

Il est recommandé de sélectionner un à deux irritants mesurables (par exemple la durée moyenne d’une intervention ou les erreurs d’assemblage), de construire un pilote court, de mesurer avant/après, puis d’étendre progressivement. 

A lire ensuite...