J’ai toujours l’impression que les jeunes générations lisent de moins en moins de livres (cela ne veut pas dire que les vieux lisent encore beaucoup non plus).
L’arrivée des médias électroniques a chamboulé cette drôle d’habitude d’avoir la tête penchée sur des mots, les yeux dérivant lentement sur des phrases, pendant de longues minutes, parfois entre quelques stations de métro, dans le train ou en voiture, ou plus fréquemment allongé dans un transat sous le soleil, quand soleil il y a.
Bref, on a l’impression que de moins en moins de gens lisent des livres.
Et quand je pense à l’UX et à la façon d’apprendre l’UX, je me demande si les UX designers ont lu beaucoup de livres (ou au moins un) pour apprendre leur métier.
Car si le livre semble un truc de l’ancien monde, ça reste pour moi encore, le meilleur moyen d’accumuler des connaissances et de s’enrichir en profondeur sur la manière de faire son métier.
J’ai tout appris dans les livres. Autodidacte par nature, ils ont toujours été ma porte d’entrée sur le savoir et j’ai toujours lu beaucoup de livres pour comprendre quelque chose. J’ai appris à coder en PHP et en Java grâce à des livres. Je me suis cultivé en UX grâce à des livres. J’ai élargi mes horizons sur le marketing ou les enjeux sociétaux dans des livres.
Plus qu’un enseignant, plus qu’une vidéo ou un cours en ligne, seul les livres me permettent d’avoir ce moment où mon cerveau peut avaler à la vitesse grand V une somme de connaissances et de la régurgiter le moment venu.
Je n’aurais pas connu les lois de la Gestalt, les critères de Bastien et Scapin, la loi de Fitts et tout un tas d’autres choses sans les avoir lues et ingérées dans ma petite cervelle de moineau.
Plus que la lecture sur un écran, être seul face à un bloc de papier (je ne suis vraiment pas adepte du livre électronique) permet d’avoir ce rapport à la connaissance dans un temps qui est celui de l’humain et pas celui de la machine. Ce que je veux dire, c’est que la lecture d’un livre s’adapte à notre rythme et nous évite cet espèce de frénésie permanente qu’impose les écrans.
Lire un livre permet de prendre son temps, de ne pas être distrait par autre chose, et surtout, surtout, de relire, de revenir en arrière, bref, de pouvoir emmagasiner la connaissance sans être contraint par le support de lecture, mais bien d’en être le maître.
C’est pour ça que je m’étonne encore de la réponse de cette personne qui m’avait dit qu’elle n’avait pas besoin de livre pour apprendre l’UX. Je trouve ça dommage.Je crois, au contraire, qu’on ne peut pas apprendre quelque chose sans s’immerger dans la littérature professionnelle qui, seule, permet de faire le tour complet et en profondeur d’un sujet.
Lire un livre, c’est plus que de vouloir apprendre des trucs et astuces, comme on le voit trop souvent sur le Web, c’est se transformer profondément, se métamorphoser, devenir un être meilleur et plus compétent dans son métier.
Alors pourquoi ne pas lâcher un peu votre sacro-saint téléphone et revenir un peu à l’ancien temps : celui des livres ?
Gens lisant dans le métro… ça, c’était avant. (image générée avec Dall-E 2, c’est pour ça que c’est bizarre 😁)
Les trois livres qui m’ont le plus marqués et appris :
Quoi faire avec les applications d’AR et de VR ? Du fantasme du Métavers à la réalité
Pour les non-initiés, ces deux acronymes doivent paraître un peu ésotérique. L’AR (Augmented reality / Réalité augmentée) et la VR (Virtual reality / Réalité virtuelle) sont pourtant deux notions essentielles du Web à venir qu’il ne faut pas ignorer sous peine de rater le train d’une future peut-être potentielle évolution du Web : le fameux Métavers !
Interrogation sur le potentiel de ces technologies ?
Mais qu’en est-il vraiment ? Quels sont réellement les potentiels de ces technologies ? Vont-elles envahir le monde ? Serons-nous tous demain dans le Métavers ou bien continuerons-nous à surfer comme aujourd’hui en glissant nos pouces sur nos écrans de mobile ? Comment prédire le futur ? Le peut-on ?
Chez Wexperience, puisqu’on est une agence d’UX, ce qui nous intéresse avant tout, c’est de comprendre comment les technologies numériques peuvent aider les usages. Comment peuvent-elles améliorer les services ? Comment peuvent-elles nous rendre meilleurs ? Or, à l’heure actuelle, nous trouvons que ces deux technologies, AR et VR, sont souvent présentées comme des potentialités de business, et rarement sous leur angle utilitaire. Ce qui en dit certainement très long sur notre façon de penser et occulte aussi très certainement les véritables potentialités de ces technologies et de ce qu’elles peuvent vraiment nous apporter, hors toute considération financière.
Remettre le Métavers au centre des besoins humains
Il est donc de notre devoir, chez Wexperience, d’essayer de comprendre comment les utiliser, comment les intégrer à nos existences, et surtout comme les rendre utiles à nos sociétés, quelque soit le domaine, et tout ceci, en plaçant l’être humain au centre de nos réflexions. Car le but de la technologie, n’est pas de réaliser des exploits d’ingénierie, mais bien de découvrir des nouvelles manières de faire des choses grâce à la technologie. Approche que l’on semble un peu oublier trop souvent la plupart du temps.
Réalité augmentée, réalité virtuelle, quelle différence ?
La différence est de taille !
Tandis que l’une nous promet d’améliorer notre environnement en y surimpressionnant des informations numériques, l’autre nous propose carrément de nous immerger DANS l’information numérique. La réalité virtuelle est un vieux rêve de science-fiction qui prend corps aujourd’hui (et en réalité, qui a déjà pris corps il y a quelques années) grâce à la technologie des casques de réalité virtuelle, telle que le fameux Oculus, vendu et promu par Méta, la société mère de Facebook. En mettant un tel casque, vous vous coupez de la réalité et plongez dans un monde de pixels où tous vos sens sont trompés pour vous donner l’illusion d’être dans un autre monde.
Le Samouraï Virtuel, un des premiers romans à évoquer le Métavers (via Les Echos)
Le lourd matériel nécessaire pour pénétrer la VR
Pour l’avoir essayé, je dois vous dire que l’effet est bluffant, et qu’avec les progrès technologiques, il le sera de plus en plus dans les années à venir, et le degré de réalisme atteint sera de plus en plus époustouflant, risquant sans doute de faire basculer pas mal de monde dans une vie partiellement virtuelle avec des conséquences bonnes ou mauvaises pour la santé mentale… mais, c’est un autre débat.
Par extension, aujourd’hui, quand on parle de Métavers, ce fameux Métavers, dans lequel on ne pourrait pénétrer qu’armé de ce fameux casque, on parle aussi beaucoup des univers en 3D, accessibles eux, depuis longtemps, par un simple écran… Il faut bien le dire : la plupart des univers 3D sont des jeux ou des univers ludiques consacrés au divertissement et à la sociabilité. Hormis le célèbre Second Life, les univers virtuels demeurent essentiellement consacrés au plaisir instantané, au jeu, aux loisirs…
Équipement pour aller dans le Métavers
La réalité augmentée existe aussi depuis qu’il existe des caméras sur les smartphones, et on peut l’approcher aussi par différents moyens. A l’heure actuelle, c’est sûrement le smartphone qui reste l’appareil le plus utilisé pour cela. Et la réalité augmentée a été clairement très popularisé par l’application Pokemon Go, qui permettait de transformer le monde en une vaste plaine recélant des millions de trésors, invisibles à l’œil, mais révélés par la caméra du smartphone et son algorithme de RA.
La réalité augmentée passera-t-elle forcément par des lunettes ?
Dès que l’on a une caméra ou un écran, on peut faire de la réalité augmentée… mais l’avenir semble de plus en plus aller vers un outil spécialement dédié à cela : les lunettes de réalité augmentée.
Là non plus, pas grand chose de nouveau : Google s’y était sévèrement cassé les dents il y a plus de 10 ans de cela avec les Google Glass. La technologie est donc ancienne. Elle s’est peaufinée avec les années, et elle semble revenir en force, notamment avec les rumeurs persistantes d’Apple Glasses, dont, pour le moment, on n’a pas vu la trace de l’ombre de la silhouette.
Il faut le dire, les deux technologies, sont souvent confondues, car mal comprises, et, à priori, n’ont pas grand chose à voir… sauf que…les deux mondes ont tendance à se rapprocher.
Pour ceux qui l’on essayé, ils savent, par exemple, que le casque Oculus de Méta permet aussi de faire de la réalité augmentée… Et d’ailleurs, si je ne m’abuse, la plupart des casques de VR, permettent aussi la RA, pas en vision directe à travers des verres, mais via des caméras multiples sur le devant du casque…
Dans tous les cas, les deux technologies se rejoignent dans la mesure où leurs objectifs sont d’abuser notre cerveau en lui faisant voir des choses qui n’existent pas (qui n’existent que sous forme d’inputs lumineux). Et c’est ça qui les rapproche… et les rend si intéressantes.
Quand l’effet whaou annihile toute réflexion
Le problème actuellement, tant de l’AR et de la VR, c’est que leur capacité à nous séduire est tellement grande que nous nous concentrons uniquement sur leurs potentialités les plus spectaculaires visuellement et que nous avons du mal à réfléchir à leurs véritables utilités. L’autre fléau qui nous empêche de le faire est cette sacré bon sang de tendance à ne voir toujours à travers les nouvelles technologies que de fantastiques opportunités de business (qui est ce que nous servent en permanence les ardents défenseurs du Métavers). Mais, nous le rappelons, pour qu’il y ait business, il faut qu’il y ait une utilité, un besoin à créer ou à combler… bref, il faut que ça serve VRAIMENT à quelque chose, et qu’on ne reste pas dans le domaine de la prestidigitation et du spectacle. Autrement dit, aller plus loin que les effets whaou et s’intéresser vraiment à ce que ces technologies pourraient apporter dans TOUS les domaines : services publiques comme domaine commercial, formation, éducation, santé, etc… Et visiblement, il y a du potentiel.
Réalité virtuelle : petit catalogue des applications
Commençons par ce qui fait le buzz aujourd’hui: le Métavers et sa fameuse réalité virtuelle.
Nous devons vous avouer une chose, c’est que si l’avenir du Web se joue dans le Métavers comme l’affirment ses défenseurs, nous avons un peu peur que cet avenir ressemble à un vaste jeu vidéo… ce qui nous inquiète un peu pour la santé mentale de l’humanité.
Deux choses :
Malgré tout (et malgré les études qui disent le contraire), il reste difficile d’imaginer que nous passerions plusieurs heures par jours dans le Métavers coupés de nos relations, coupés de la réalité, sans conséquences sur nos esprits. Aujourd’hui, cela est impossible à dire, mais les premières études sur le sujet montrent que l’humain n’est pas prêt… Et d’ailleurs, si j’ai bien compris, c’est le responsable du programme de l’Oculus qui disait lui même qu’il n’envisageait pas cette possibilité. Mais que, d’après lui, ce que je trouve assez improbable, nous utiliserions le casque en pointillé dans une journée, par petites intermittences… pour certaines tâches uniquement…
Pour l’instant, ce que propose Méta est baigné dans un univers tellement infantile et orienté loisir qu’il ne correspond en rien à un univers de travail ou même un univers qui rallie et fédère des populations non appétentes naturellement au numérique.
Applications utilitaires
Hormis les jeux, ce qui nous intéresse, ce sont les applications utilitaires que pourraient permettre le Métavers, ou bien, les applications de VR. Et, pour l’instant, il faut bien dire que l’on reste un peu sur notre faim.
Dans cet article, nous avons essayé de dresser un panorama de choses qui existaient et pouvaient avoir un sens dans la perspective d’un véritable service aux humains.
8 applications utilitaires seulement sont proposées dans l’appstore de Méta !
Horizon Workrooms
Démonstration et simulation de Horizon Workrooms… Attention, ceci n’est pas la réalité de la réalité virtuelle 🙂
C’est un peu l’application phare de Meta pour ce qui concerne le travail collaboratif en ligne. Censé remplacer la visio, HW permet de se retrouver à plusieurs dans une même pièce pour travailler ensemble. L’illusion est totale et le fait de se retrouver en 3D dans un espace virtuel à plusieurs assez emballante. Une fois rassemblé dans cet univers, il est ensuite possible de se parler, de travailler ensemble sur un tableau blanc (aux fonctionnalités très limitées), de projeter son écran d’ordinateur sur un écran partagé, de taper au clavier de son ordinateur comme sur un vrai ordinateur.
Nous avons pu le tester à fond, et si l’expérience est amusante, pourrait-elle vraiment prendre ?
Outre le fait qu’elle nécessite que chaque participant ait un casque de VR, que penser d’interactions humaines sous la forme d’avatar dans le monde professionnel là où justement il n’y a pas besoin d’être « masqué » et où le jeu des expressions du visage est important pour une bonne compréhension de l’information. Le fait d’interagir sous la forme de petit personnages de dessin animé peut-il être vraiment la condition d’une bonne session de travail… eh bien, j’en doute un peu.
La formation semble être une proie de choix pour la VR et de nombreuses sociétés proposent déjà de nombreux simulateurs permettant de recréer différentes situations dans des mondes en 3D. L’intérêt semble bien là, et à priori, le marché aussi, mais on peut quand même s’interroger sur les limites de ces simulateurs…
Exemple, ci-dessous, un programme de formation à la prise de parole en public. La simulation semble parfaite, mais comment faire ressentir réellement le stress d’être face à plusieurs dizaines ou centaines de personnes ? La VR peut être recréer cette sensation ? Et si non, quelle utilité réelle ? Ici, comme d’autres domaines, même si la technologie permet de faire, elle mérite encore largement d’être éprouvée et prouvée pour qu’elle puisse sortir du simple domaine de la curiosité.
Et ici dans le domaine chirurgical, un outil de formation proposé par la startup Osso. Presque tout le monde pourrait devenir chirurgien ! Mais là aussi, la vraie question est : cette simulation peut-elle permettre la précision nécessaire à la vraie chirurgie ? La réponse est évidemment, non… ce qui en limite l’intérêt.
Toujours dans le domaine médical, la jeune startup française Simango propose une expérience immersive complète grâce à la reproduction totale en 3D d’un hôpital. C’est ce qu’on appelle un jumeau numérique. Intérêt ? Pouvoir familiariser les différentes personnes amenées à fréquenter ou à utiliser les moyens de cet hopital avec son environnement simulé.
Twitter abonde de démonstrations réalisés par les développeurs et cela permet réellement de ce rendre compte de la recherche et des avancées en tout genre. Ici, par exemple, et toujours dans le domaine de l’apprentissage, cette merveilleuse app pour apprendre à jouer du piano. Il s’agit ici de réalité mixte qui mêle l’utilisation d’un casque de VR avec la réalité augmentée… ce vers quoi, d’ailleurs, on s’avance de plus en plus aujourd’hui.
La VR peut également être utilisée dans des simulations d’accueil du public. Accenture explique ici comment elle accompagne le gouvernement américain dans l’entraînement et la formation des agents d’accueil face à un public de diversité.
Avantages de l’apprentissage par la VR
L’apprentissage en VR est-il une chose sérieuse ? De tous temps, dans l’industrie et dans d’autres domaines, les simulations ont trouvé leur utilité. L’exemple le plus flagrant est celui des simulateurs de vol porté à un très haut niveau de sophistication.
En 2020, une étude conduite par le cabinet PwC a montré l’efficacité des formations en VR comparé à des méthodes d’apprentissage plus traditionnelles. Les résultats montrent que les employés s’entraînant dans un environnement réaliste mais sûr ont besoin de moins de temps pour acquérir des connaissances et restent plus concentrés lors de la phase d’apprentissage. Qui plus est, ces mêmes apprentis semblent montrer une plus grande confiance en eux, grâce à une approche émotionnelle plus grande avec le sujet d’étude.
Walmart, le géant américain de la distribution est sans doute l’une des société le plus avancée au monde. Depuis 2017, elle utilise la réalité virtuelle pour former nombre de ses salariés, pour des simulations allant à l’apprentissage de tâches quotidiennes jusqu’à la gestion de rush en magasin comme le Black Friday ou Noël.
Plus d’un million de collaborateurs et managers ont déjà profité d’une formation en réalité virtuelle, selon Walmar, et a permis de réduire considérablement les coûts de formation, ainsi que d’accélérer les processus d’apprentissage. (via itransition)
Domaine de la vente
Un des indéniable avantage de la VR est qu’elle permet d’éviter les déplacements physiques tout en plaçant l’utilisateur dans un environnement proche de la réalité. Et certains marchands n’ont pas attendu pour s’y mettre, comme c’est le cas ici de IKEA qui permet grâce à son application d’essayer et de visiter une de ses fameuses cuisines.
Toujours en B2B, cette expérience faussement immersive (car, elle n’est pas accessible avec des lunettes de VR) montre comment certaines marques envisagent le commerce B2C dans un supposé futur Métavers. Il s’agit d’un environnement entièrement virtuel créé par l’agence Brandlab 360 pour la marque Too Faced.
Même si l’environnement créé est superbe, toute l’expérience demeure extrêmement laborieuse et s’apparente plus à une promenade virtuelle dans un environnement 3D proche du jeu que d’une expérience sérieuse de shopping.
Dans cette expérience « immersive » de Too Faced, l’utilisateur peut explorer une maison « magique » et acheter des produits. Joli, mais extrêmement laborieux et très peu adapté au shopping en ligne.
La VR pour le merchandising physique
En 2019, Kellog’s expérimentait aussi la VR en l’utilisant comme un outil de recherche afin d’améliorer le packaging de ses produits (les Pop Tarts Bites) dans leur environnement de vente. C’est effectivement une des applications intéressantes de la RV : pouvoir tester, simuler des environnements sans avoir à les fabriquer entièrement, comme des rayons de magasin, mais on peut imaginer d’autres environnement : des musées, des espaces d’accueil publics, etc.
Découvrez comment la marque Kellogs a amélioré le packaging de ses produits grâce à la RV (via Itransition)
L’immobilier, pour l’instant, ne semble pas encore avoir adopté à grande échelle la génération de prévisualisation en 3D immersive de maisons et d’appartement. C’est étonnant, car les technologies actuellement existantes comme celle de Matterport peuvent aider facilement à scanner en 3D un bien et à le reproduire en vidéo directement sur un site d’annonce ou à travers un casque de VR.
La société Matterport commercialise plusieurs types de caméras pour faire des scans en 3D de biens immobiliers. Elle propose aussi ce kit pour mobile, peu onéreux.Exemple d’un lieu scanné avec Matterport. Cliquez sur l’image pour voir la démo.
Le tourisme
Le tourisme en VR demeurera-t-il un fantasme ou se concrétisera-t-il vraiment comme un supplétif aux voyages alors que de plus en plus de voix s’élèvent contre le tourisme de masse et le transport en avion ?
En tout cas, il est déjà possible de visualiser ce que pourrait être une excursion loin de chez soi sans quitter son siège. Les applications de visites virtuelles sont légions dans l’Oculus de Meta qui en fait même un très fort argument de vente. Et, il faut l’avouer, le réalisme et l’immersion sont très convaincants. Nous avons réussi à rester immergé pendant plus de 20mn dans un Oculus Quest pour une petite excursion au Kenya sans quitter notre canapé.
Dans un autre genre, la société Lithodomos propose des reconstitutions immersives en 3D de sites archéologiques célèbres. Là aussi, c’est très convaincant et il n’y a aucun doute sur l’existence d’un véritable marché pour ce type d’applications. De nombreux musées et sites s’en sont emparés pour offrir une expérience alternative aux touristes.
Pour autant, ces visites virtuelles seront-elles des produits d’avant-vente ou bien le produit en lui même ? Rien n’est moins sûr… car voyager, sans voyager… demeure un pis-aller, mais peut-être en arriverons-nous malheureusement là si nous continuons à polluer sans vergogne notre planète.
Le sport
Faire du sport en restant chez soi est une sorte de rêve de geek, mais il est vrai que la VR a de sacrés arguments en la matière et pourrait permettre de transformer n’importe quel « couch potato » (adepte du canapé) en véritable sportif, grâce à sa capacité inégalée à transformer tout effort en jeu. Et c’est sans doute un des domaines où la VR à le plus de chance de s’imposer hors les jeux vidéos.
Ci-dessous, vous trouverez une vidéo (en anglais) qui fait un tour assez complet de la question avec beaucoup d’exemples qui devraient vous plaire.
Les réseaux sociaux
Pour Meta, le futur, ce sont bien sûr les réseaux sociaux en VR. C’est même sa promesse majeure. Je n’en parlerai pas beaucoup ici, parce que, finalement, à travers des jeux comme Decentraland ou …, les réseaux sociaux existent déjà en VR, bien qu’ils ne soient, la plupart du temps, pas pratiqués avec un casque de VR (usage vers lequel Mark Zuckerberg voudrait emmener toute l’humanité, en toute modestie).
En fait, rien de nouveau sous le soleil… c’était déjà l’exact but de Second Life qui, finalement, est resté un univers très confidentiel, malgré un engouement de départ très médiatisé, mais qui depuis est quasiment tombé dans l’oubli.
Pour les plus anciens, c’était déjà aussi l’objectif de Habbo Hotel, un hotel virtuel géant fait de rencontres et d’interactions sociales, qui, lui non plus, n’a pas connu le succès escompté.
Trop compliqué à gérer ? Pas assez intéressant ?
Toujours est-il que cela semble être la voie prioritaire de Méta avec son Horizon Wolrd (bien mal annoncé par Mark Zuckerberg sur Twitter) et dont on peut voir la construction, brique par brique, si on peut dire, avec, par exemple ici, l’ajout de pouvoir posséder son propre lieu privatif et pouvoir y inviter ses amis.
Les univers privatifs tels que vu par Méta. On pourra y inviter ses amis, chatter avec eux, et plus, si affinités (comme jouer aux fléchettes).
Tout ça est du recuit déjà vu, et on peut s’étonner qu’une société comme Meta s’évertue à recréer un déjà existant, si ce n’est tout simplement pour mettre la main sur les activités des adolescents (car, quel public cela peut-il visiter hors les adolescents) et leur revendre de la pub et des objets virtuels (NFT ou pas) avec une monnaie virtuelle.
Et pour l’instant, comme les chiffres le montre, l’engouement n’est absolument pas là pour Meta… sans doute parce qu’il manque une dimension essentielle à Horizon World : une véritable âme… celle de son créateur…
Réalité augmentée : un temps d’avance et des applications pratiques avérées
Inutile de dire que la réalité augmentée a un sacré temps d’avance sur la VR. Le nombre d’applications utiles disponibles sur le marché sont pléthores et bien utilisées. D’un point de vue strictement business, il n’y a plus à se poser la question de savoir si l’AR est une technologie d’avenir. C’est une technologie d’aujourd’hui utilisée pour des services réels.
Dans le domaine du ecommerce
Commençons par le domaine que nous connaissons le mieux. Depuis longtemps les entreprises de vente en ligne ont compris l’utilité de la réalité augmentée pour enrichir l’expérience client.
La réalité augmentée n’est pas un outil de vente, mais bien plutôt un outil d’aide à la décision, de simulation, ou de substitution à la réalité, en permettant de « toucher » virtuellement les produits sans avoir à se déplace en magasin et nous en avions déjà parlé sur ce blog.
Les lunettes
C’était sans doute une des premières applications viables et c’est Rayban qui a sans doute lancé cette possibilité, qui atteint aujourd’hui un niveau de réalisme suffisant pour en faire un outil convaincant. Chaque fiche produit de lunettes permet de faire un essai virtuel. Et c’est plutôt très convaincant, même si sur la photo ci-dessous, on a l’impression que Olivier, notre boss, sort de prison 🙂
Tous les modèles de Rayban peuvent être essayés virtuellement, et l’AR ici est forcément un bon vecteur de conversion pour ceux qui ne peuvent se rendre en magasin (à tester ici)
L’habillement
Inutile de dire que la mode est le domaine de prédilection de la réalité augmentée et qu’elle a déjà largement été expérimentée par les marques.
Les exemples sont nombreux de réalité augmentée où il est possible d’essayer un article avant de l’acheter en ligne. Et même si le réalisme était pendant longtemps aux abonnés absent, les progrès de la puissance des processeurs et l’amélioration des algorithmes permettent aujourd’hui d’atteindre des niveaux suffisamment convaincant pour engendrer de l’engagement, voire de la conversion.
C’est ce qui ressort d’ailleurs fortement de l’étude en ligne réalisé par Snap avec IPSOS (à télécharger ici) à travers le monde auprès de plus de 20000 consommateurs et 1000 professionnels de l’AR qui montre que le ecommerce en réalité augmentée dans le domaine de la mode est une réalité. 90% des marques interrogées pensent que l’AR peut leur permettre d’améliorer leurs ventes et 73% des consommateurs que l’AR peut leur rendre leur expérience de shopping plus facile.
La réalité augmentée utilise différentes sortes de technologies, et parfois, il est surprenant que des choses assez simples, sans recourir au smartphone,à une caméra ou à des lunettes peuvent permettre de créer des expériences plutôt engageantes et utiles comme c’est le cas ici, avec Nike, où il est possible de prévisualiser d’avance des Nike personnalisables comme dans la réalité. Plutôt original, et sûrement une raison de plus pour se rendre en magasin.
Ce qui est saisissant, c’est que la réalité augmentée peut être utilisée partout et pas forcément pour essayer à distance des produits, mais aussi pour créer des expériences physiques et les magnifier. Je vous conseille fortement d’aller voir cette courte vidéo de Zara qui permet à un utilisateur d’assister à un défilé de mode dans une vitrine de magasin. Un bon moyen de faire rentrer les gens à l’intérieur et de générer du trafic.
Experience the Look permet de faire défiler des mannequins dans une vitrine de vrai magasin. Cliquez sur l’image pour voir la vidéo.
IA + AR
L’exemple suivant n’est qu’une démo, mais permet de bien envisager le développement de nouveaux modes de shopping mêlant l’AR et les algorithmes de génération d’image comme DALL E ou Midjourney. Ajoutez-y en plus la commande vocale et vous aurez quelque chose d’assez magique. J’attends avec impatience de voir débarquer dans nos smartphones ou nos futures lunettes d’AR ce genre de possibilités.
What if we imagined what shopping could be like with the technology we already have today?
• Images generated by #AI from text • #AR clothes fitting • Voice assistant
In seconds we automatically create a customized product for the customer. What do you think? pic.twitter.com/Evv1uV8yZD
Autre expérimentation ici par des gens de chez Shopify, ci-dessous, qui, comme l’exemple précédent, mixe les avantages de la réalité augmentée avec les progrès de l’intelligence artificielle. Le résultat est franchement étonnant ! (attention, ceci n’est qu’une démo, pas une fonction opérationnelle, mais on pourrait y arriver vite).
Could you tell which room was virtual? 👀
Traditional AR can’t tell you how a couch feels. Our team @Shopify explored "Reverse AR" to wrap a virtual room around a real thing. Sit on a couch in-store while seeing it in your space—best of both worlds!
IKEA Place existe déjà depuis longtemps et permet d’implanter dans votre propre maison des meubles IKEA avant d’aller les acheter en magasin. C’est le basico-basique du ecommerce en réalité augmentée. Et même si cela manque encore un peu de réalisme, nul doute que cela peut aider partiellement à prendre des décisions d’achat.
La beauté
Sans doute un des domaines où la réalité augmentée est la plus convaincante, car la plus réaliste. Grâce à des algorithmes d’IA (encore !) et l’AR, il est tout à fait simple de simuler l’application d’un maquillage sur un visage et le résultat est souvent tout à fait convaincant. Après, il ne reste plus qu’à appuyer sur le bouton « acheter » pour aller plus loin !
Nuxe n’est pas la seule marque à s’être lancé dans la réalité augmentée, et vous pouvez-voir ci-dessous un autre exemple d’application de maquillage, à travers un smartphone, pour Sephora. Plutôt très convaincant !
Industrie et maintenance
Aujourd’hui, l’AR trouve des applications dans de nombreux domaines professionnels, contrairement à la VR qui semble encore un peu embryonnaire. En voici quelques exemples pour vous donner un avant goût de ses immenses possibilités.
Premier exemple : une application pour visualiser les sous-sols dans le domaine des travaux publics. Beaucoup plus efficace, sans doute, que le moindre plan en papier. La vision est réelle et immédiate.
Pour les chefs de chantier, voir le sous-sol à travers des lunettes d’AR.
Autre exemple ci-dessous pour un projet de chantier, permettant de prévisualiser l’ouvrage final à l’avance et tout ses composants.
Enfin, toujours dans le domaine industriel, une application de réalité augmentée qui permet d’obtenir de l’information sur chaque fromage chez un affineur.
Le journalisme
Cela fait longtemps, très longtemps que le New York Times explore la réalité augmentée pour les besoins du récit journalistique. Et le travail réalisé est impressionnant. A ce jour, le journal compte plus de 30 articles l’utilisant, ce qui en fait un leader mondial dans le domaine.
L’idée étant ici de créer de nouvelles formes de récit qui puisse embarquer l’utilisateur hors du texte et vers un monde interactif chez lui dans lequel il peut interagir avec le sujet de sa lecture.
Les écrans têtes hautes existent depuis longtemps dans l’automobile, mais on les trouve aussi désormais pour les motos avec ce casque qui permet de dispatcher des informations directement dans le regard du motard à travers la visière.
Le tourisme pourra être très certainement un domaine où la réalité augmentée trouvera sa pertinence en permettant d’afficher des informations subliminales à un lieu touristique (pour peu que les voyageurs s’équipent de lunettes de réalité augmentée, ce qui est encore très loin d’être le cas). On peut déjà voir des applications intéressantes et même des cas concrets comme celui de Snap ci-dessous, qui a déjà dépassé de loin le stade de projet.
Custom Landmarkers, Snapchat's Visual Positioning System, bring @thedesignium developer, @mechpil0t's "Tokyo Time Machine" Lens to life. After scanning an area and using Landmarkers, the magic of AR activates when these locations are visited. #SnapSpectaclespic.twitter.com/X8CbFQD7Qe
Plus proche de nous, le travail de chercheurs français qui, grâce à une app sur smartphone, pensent pouvoir réinventer la visite d’un lieu mémoriel et pouvoir apporter plus d’informations, plus immersives aux visiteurs. (Via France 3 régions)
Conclusion
Nous n’avons fait qu’effleurer une toute petite partie des applications de la VR et de l’AR. Volontairement, nous avons omis de parler de tout ce qui concerne les loisirs, le jeu, les concerts, car ce sont aujourd’hui les domaines qui sont les plus abordés par ces technologies. Pas étonnant, les lunettes de VR, au départ, ont été conçues pour le jeu et elles demeurent encore fortement attachées à cet univers.
Vers un monde mixte de VR et d’AR
VR et AR vont avoir fortement tendance à se mixer dans les années à venir. Déjà, le prochain casque de Meta, l’Oculus Pro, aura des caméras bien plus perfectionnées que les modèles actuels pour pouvoir se mouvoir à la fois dans les mondes virtuels et à la fois dans la réalité. Avec ce casque, tout comme celui de Pico d’ailleurs, celui du plus grand rival de Meta à l’heure actuelle, la réalité ne sera pas vue directement depuis le regard, mais à travers une caméra.
C’est le contraire avec les lunettes de réalité augmentée qui n’obstrueront pas le regard, mais permettront de superposer à la réalité des éléments virtuels.
Quelles pistes explorer ?
Il y a beaucoup de choses à faire avec ces technologies, mais ce que l’on voit clairement :
Pour la VR, les applications vraiment pro ont du mal à émerger.
Un des progrès notables de la VR sera la possibilité de pouvoir retranscrire les expressions du visage. C’est déjà possible avec le casque Pico Pro 4 et ça le sera avec le nouvel Oculus Pro. Mais ces casques coûteront chers, vraisemblablement près des 1000 euros, ce qui n’en fera pas de produits mainstream dans l’immédiat.
L’AR est déjà beaucoup plus présente dans nos vies. Normal, il est possible de l’utiliser déjà pleinement à travers des appareils que nous possédons déjà : smartphone, ordinateur, mais aussi lunettes (pour l’instant, Snap est sans concurrent, mais ses lunettes semblent avoir un réel succès et l’entreprise semble vraiment mettre beaucoup de moyens pour les promouvoir)
Elle trouve aussi déjà beaucoup d’usage dans les applications pros (apprentissage, bâtiment)
Reste à savoir si les lunettes de réalité augmentée deviendront un jour des produits mainstream ou resteront confinés à des niches
Et l’UX dans tout ça ?
Eh oui, l’UX dans tout ça ?
Eh bien, comme pour toute application, surtout dans des domaines aussi innovants, il sera toujours utile d’aller faire des tests utilisateurs pour permettre une meilleure adaptation des utilisateurs à toutes ces nouveautés.
Il y a encore beaucoup à apprendre et ça ne sera pas au feeling ou à l’instinct qu’il faudra construire des interfaces, mais bien en travaillant en collaboration avec les utilisateurs, selon les mêmes méthodes qui sont déjà utilisées pour le Web.
Quand David et Goliath se termine par la reddition de David
Affiche du film d’Orson Welles : David et Goliath
Je voudrais vous dire, amis designers, non, Figma ne va pas disparaître.
Et le rachat de Figma par Adobe, ça n’est pas le grand méchant loup qui mange le gentil agneau innocent.
C’est la vie normale des entreprises… et la plupart des startups, aujourd’hui, qui réussissent, finissent pas se faire racheter par un grand groupe. Souvenez-vous de Youtube, d’Instagram, etc… En général, c’est pour le meilleur (pas toujours, c’est vrai, mais souvent). Adobe n’a aucun intérêt à tuer Figma qui est un bien meilleur produit que XD (même si XD est aussi un bon produit).
Ce qui risque de se passer, c’est… pas grand chose…
Figma a toujours une énorme communauté d’utilisateurs. Un écosystème qui va en s’améliorant. La seule chose qu’on peut attendre, c’est sans doute l’inclusion dans Figma de passerelles avec l’écosystème Adobe : dans le design, dans la 3D, et peut-être avec les CMS d’Adobe (dont Magento, qui lui aussi a été racheté et survit toujours aujourd’hui).
Il ne devrait donc pas y avoir de problème. A moins qu’Adobe n’ait envie de se tirer une balle dans le pied en tuant Figma au profit d’XD… ce qui serait vraiment idiot après avoir dépensé 20 milliards de dollars, un cinquième de la valeur capitalistique d’Adobe.
Il faut voir le bon côté des choses.
Ce rachat montre toute l’importance du design d’expérience utilisateur (et donc, d’interface) dans le monde d’aujourd’hui. Si Adobe rachète Figma, c’est qu’il y voit l’avenir et qu’il pense que l’UX aura une importance de plus en plus capitale dans les activités humaines. On devrait donc s’en réjouir.
Et puis, n’oublions pas une chose… même si Figma est un outil puissant qui permet d’améliorer la productivité des équipes UX, il n’est pas la solution à la création de bonnes expériences utilisateurs. Il n’en est qu’un des composants. Le design d’interface n’est que le bout de la chaîne de création d’UX et si tout le travail en amont n’est pas bien réalisé, il ne sert à rien d’avoir une fusée pour produire des applications ou des sites difficiles à utiliser pour son public cible.
Un outil génial, oui, mais il n’y a pas que les outils dans la vie
L’outil ne fait pas l’UX designer. C’est cela que je voudrais rappeler, car j’ai un peu l’impression (et ce n’est pas nouveau) que beaucoup trop de jeunes UX Designers pensent et croient qu’avec Figma, ils feront de meilleurs designs.
Ça me rappelle les gens qui font de la photo et s’achètent un Leica, parce que, pensent-ils, ils feront de meilleures photos. Eh bien non. S’ils n’ont pas toute la science du photographe en eux : la patience, la capacité à capter le bon moment, à savoir cadrer, à comprendre la lumière, etc… ils ne feront que des photos techniquement bonnes, mais sans âme.
Pour un designer, c’est la même chose. Avec Figma, ils peuvent faire des interfaces techniquement bien conçues… mais Figma ne garantit en rien qu’ils produiront des produits utilisables.
C’est là qu’est toute l’importance de la chose.
Les bons outils, ça compte. Mais le bon design, c’est avant-tout de la culture, du jus de cerveau, de l’observation, et de l’intelligence pour mettre tout ça en boîte dans un produit qui satisfasse les utilisateurs, TOUS les utilisateurs.
Faire fi des potentialités douteuses du Métavers pour s’intéresser aux applications réelles de la réalité mixte
On parle beaucoup de Métavers sur les réseaux sociaux, et on s’emballe beaucoup sur ses potentialités douteuses, mais moi je crois qu’il est beaucoup plus intéressant de regarder ce qui se fait aujourd’hui avec des outils de réalité augmentée ou de réalité virtuelle, avec des expériences concrètes, et des usages potentiels réels, plutôt que de tirer des plans sur la comète et acheter des terrains virtuels des millions d’euros pour un univers qui n’a pas de public. Bref, passons.
Hier, je suis tombé sur cette page du New York Times dans laquelle la joyeuse équipe du New York Times Lab se livre à tout un tas d’expérimentation passionnante sur les outils de réalité augmentée (casque et lunette) pour commencer à travailler sur le reportage 3.0
Pouvoir scanner un lieu en 3D et le reconstituer à l’identique dans un espace virtuel
Pouvoir ajouter des notes écrites ou orales à ces espaces virtuels
Pouvoir retransmettre en temps réel une scène à un public cible
Evidemment, cela reste des expérimentations, mais, même si elles montrent que les véritables applications ne sont pas pour tout de suite, il n’en reste pas moins qu’elles pourraient bien à terme aider les journalistes à créer de nouvelles formes d’informations plus immersives… et donc, pourquoi pas, s’insérer dans le futur Métavers, si jamais un jour il arrive. Mais l’intérêt est surtout de pouvoir permettre de raconter des récits d’une autre manière, dans lequel « le lecteur » (et je mets « lecteur », alors que sans doute, il ne lira plus grand chose) « vivra » l’actualité en étant plongé en son sein, ce qui sera entièrement nouveau.
Pour le bien de l’information ?
Ça je ne sais pas, car je crois encore profondément à la puissance évocatrice des mots, beaucoup plus enrichissante, nourrissante que n’importe quelle expérience immersive. Les mots, comme je l’ai dit dans mon article précédent, sont bien plus porteurs de sens, de transmission d’information, et de capacité d’évocation que les images, les vidéos ou les réalités virtuelles. Mais il n’empêche qu’il faut essayer.
Et l’UX là dedans ?
Oui, c’est vrai, j’ai oublié d’en parler. Eh bien, là où on voit que l’équipe R&D du New York Times aborde la bonne démarche, c’est que non content d’essayer de tirer parti de nouvelles technologies (une partie de leur équipe est faite de développeurs), celle-ci est intégrée dans une démarche globale de tests utilisateurs.
Ainsi les casques de réalité mixte ont-ils été testés par de nombreux membres de la rédaction pour comprendre leurs réactions, leurs difficultés, leurs remarques par rapport à ces outils.
Une démarche entièrement décrite dans l’article que j’ai déjà cité et que je vous invite à lire (en englais).
Je pense qu’on en rêve tous : un outil qui permettrait de dessiner des interfaces par de simples lignes de commande.
Evidemment, si j’écris cela, ce n’est pas par hasard.
Depuis qu’ils ont fait leur apparition, des outils comme Dall E 2 ou Midjourney sont la proies des graphistes, designers, architectes qui rivalisent d’imagination pour générer des images dont le résultat est souvent très édifiant, très créatif, très perturbant et qui ouvre un champ à la création dont on n’aurait pas pu rêver il y a encore deux ans.
Mais des outils comme Midjourney ou Dall E peuvent-ils aider à concevoir de meilleures interfaces, et, in fine, de meilleures expériences utilisateurs ?
Grande serait la tentation de se dire qu’il suffirait de taper une description d’interface dans l’un des deux pour obtenir un résultat qui permettrait de soumettre à son auteur plusieurs propositions parmi lesquelles il n’aurait plus qu’à choisir.
Certes, oui, mais… non.
Car Midjourney et Dall E sont des générateurs d’images, pas des créateurs d’interfaces.
Une interface n’est pas une image, c’est un ensemble d’informations, de voyants, de boutons d’actions, assez complexe, qu’il serait très difficile de décrire à l’aide d’un simple prompt (une phrase de quelques mots) sans obtenir quelque chose de complètement abstrait. Une interface ressemble à une image, mais elle est éminemment structurée pour répondre à un besoin utilisateur, pas pour être une représentation graphique d’un imaginaire tel que nous le voyons dans tous les magnifiques travaux qui sont depuis des semaines partagés sur les réseaux sociaux.
Petite expérience sur Dall.e 2 où l’on voit bien que l’IA est destinée à produire des images, pas des interfaces réfléchies
Cela fait des années que je m’interroge sur les apports de l’IA à la conception d’interfaces…
…et franchement, j’ai un peu du mal à y voir clair. La seule chose qui m’avait réellement surpris et laissé quelques espoirs était cette démonstration d’un outil qui permettait de designer une interface « propre » à partir d’un croquis sur une feuille de papier (et si quelqu’un retrouve cette vidéo, je veux bien le lien)
Certes, cela pouvait faire gagner du temps, mais l’expérience semble ne pas avoir prise, puisqu’aucune startup, aucun outil en production ne semble avoir émergé de cette expérimentation.
Autre tentative de design d’app sur Dall E 2. Là encore, le résultat est sans intérêt, car il ne répond à aucune contrainte.
Ou l’IA pourrait-elle, dès lors, aider à la conception d’interfaces ?
Certainement pas dans le design, mais plutôt, peut-être, dans l’analyse de d’interface, qui reste encore dans de nombreux cas une épreuve douloureuse… Disons plutôt un travail assez complexe, long et cher, qui pourrait peut-être être un peu industrialisé grâce à l’IA… ou du moins accéléré.
Cela existe déjà, avec par exemple, un outil qui génère des cartes de eye-tracking sur des pages webs. Intéressant, mais pas forcément très utile. Car ne permettant pas de comprendre en détail ce qui est un défaut ou ne l’est pas. Cet outil permet essentiellement de faire ressortir les éléments saillants d’une interface… mais, un expert ne le peut-il pas tout aussi bien ? (à moins de ne pas avoir d’expert sous la main).
L’idéal serait quelque chose qui permette de dire à n’importe qui quels éléments de l’interface présente des défauts ou n’en présente pas.
Par exemple, si la densité d’information de la page est trop grande… ou si il y a trop d’éléments saillants dans la page, ou si les libellés des boutons ne sont pas adaptés à l’action.
On le voit, c’est sans doute encore un peu compliqué de s’orienter vers de tels outils, car le coût de développement serait sans doute hors de proportion avec le retour sur investissement (le nombre d’UX designers dans le monde, et les missions qu’ils effectuent, étant sans doute largement inférieur au coût de développement d’un outil d’IA qui soit capable de faire un « cognitive walkthrough » sur tout un site ou une app).
Alors bien sûr, il reste l’autre pendant de l’analyse, celui des web metrics ou de la mesure des clics et des actions des utilisateurs en masse sur une interface.
Là non plus, il ne me semble pas que des outils existent.
Mais, on pourrait très bien imaginer qu’une IA lancée sur des milliards de données puissent faire ressortir des modèles de données intéressants qui pourraient ensuite être utilisés et reproduits pour concevoir de nouvelles applications ou sites webs. Le travail me semble titanesque… mais serait peut-être la meilleure voie à explorer.
Non ce que je trouve génial, c’est de l’avoir appelé « Island »… Une île… Tout un monde, tout un rêve dans un mot.
Tout un monde dans un mot
Apple aurait pu l’appeler l’encoche dynamique ou bien le « central commander » ou bien encore n’importe quoi de technologique, mais non… C’est un nom bien plus chargé d’évocations qui a été choisi et je me demande si le point fort de l’affaire, ça n’est pas ce mot, justement : l’Île… Rien que de l’écrire, de le prononcer dans ma tête, fait surgir dans les circonvolutions de mon cerveau mille images, mille scènes de film, mille rêves, mille livres.
Une île est toujours la promesse d’émotions fortes
Parce qu’une île, qui est un lieu bien délimité, isolé dans un océan, fermé par une barrière d’eau immense, une Île est toujours un lieu déchaînant l’imagination, source, à la fois de promesses mirifiques, mais aussi de dangers absolus. L’île, c’est la boîte aux chocolats de Forrest Gump. On ne sait jamais ce qu’on va y trouver, mais on est toujours agréablement surpris.
Que l’on songe à Lost où un groupe de passagers d’un crash d’avion se retrouve confronté à de mystérieux phénomènes et des mystérieux habitants.
Ou à l’Île du Docteur Moreau où les explorateurs se retrouvent confrontés à la pire des créations.
L’île possède toujours une façade aguicheuse dans l’imaginaire. Souvent paradisiaque, souvent garnie de jungle, de plantes verdoyantes, de plages de sables blancs. L’île est toujours séduisante. Parce qu’on peut y échapper à la réalité du monde, parce qu’on peut y vivre en autarcie, parce qu’on peut s’y réinventer en se retrouvant soi même.
Ne demande-t-on pas souvent : « Si vous deviez emporte quelque chose avec vous sur une île, qu’est-ce que vous prendriez ? »
L’île nous ramène toujours à une dimension essentielle de notre existence.
Elle nous ramène à nous, comme Tom Hanks dans Seul au monde. Ou bien, forcément Robinson Crusoë. L’île nous transporte dans un rêve d’absolu dans lequel notre univers serait forgé par notre désir de tranquillité absolu, de vie idéale, parfaite, ramené à sa plus simple nudité et simplicité, pure… Elle reflète notre désir de vie idéale, débarrassée des autres.
Robinson Crusoe
Dans Dynamic Island, c’est la promesse de mettre le monde du numérique à nos pieds et de pouvoir le commander d’un simple geste du pouce ou de l’index.
De nous rendre tout puissant dans notre propre île, de faire de nous le maître de nos applications, d’être le roi ou la reine absolue de notre royaume (l’iPhone, porte d’entrée du monde numérique).
L’île n’est jamais un univers fade, gris ou plat… qu’elle dissimule le mal ou le bien dans ses entrailles, on n’y trouve jamais de petits trésors ou de petites horreurs…L’île est toujours l’écrin du maximum, de l’absolu, du plus merveilleux des merveilleux ou de la pire des horreurs (King Kong, l’Île au trésor). Ce qu’elle contient ne laisse jamais indifférent, étonne et surprend toujours, nous bouleverse, est comme un grand raz de marée dans l’existence des héros qui la découvrent. L’île est un lieu de transformation et métamorphose ceux qui y mettent le pied.
Voilà pourquoi le mot « île » est sans doute la meilleure trouvaille dans le Dynamic Island d’Apple.
Sans ce mot, il n’y aurait rien, ou du moins pas grand chose, et nous serions sans doute restés beaucoup plus indifférents à ce petit appendice numérique dans l’interface de l’iPhone.
C’est une grande leçon que nous donne Apple, car elle nous rappelle que le pouvoir des mots est sans doute encore plus puissant que le pouvoir des images, du design. Un mot peut tout changer. Un mot enferme en lui des milliers d’images. Chacun peut le parer de l’apparence qu’on veut bien lui donner. Il est à la fois universel et unique.
Et ce mot, « île » est sans doute l’un des plus forts qui soit, un des plus stimulateurs de notre machine à rêves, notre cerveau.
Alors bien sûr, en tant que designer, rare nous est donné l’occasion de donner un nom à un morceau d’interface… en revanche, il s’agit d’y penser, travailler son wording, réfléchir à son ton de voix, au vocabulaire utilisé, peut radicalement transformer l’expérience d’un site ou d’une app. C’est cela aussi que nous enseigne Apple : le design, ce ne sont pas que des formes, des couleurs et des animations… ce sont aussi des mots, des petits mots, qui ont le pouvoir imparable de déclencher des vagues de souvenirs, de réminiscences dans nos pensées, et rendent et transforment les expériences en de belles aventures.
Cela est tout aussi remarquable que d’avoir caché l’encoche dans un bouton virtuel.
Avec la réalité augmentée, ne risquerait-on pas l’overdose en numérique ?
Ce matin, je suis tombé sur cette démo de réalité augmentée d’un développeur qui utilise les lunettes Snapchat (les Spectacles) où l’on voit comment on peut incruster de l’information en surimpression sur notre champ de vision.
Custom Landmarkers, Snapchat's Visual Positioning System, bring @thedesignium developer, @mechpil0t's "Tokyo Time Machine" Lens to life. After scanning an area and using Landmarkers, the magic of AR activates when these locations are visited. #SnapSpectaclespic.twitter.com/X8CbFQD7Qe
Évidemment, ma première réaction a été de me dire : « Whaou ! Ce truc est vraiment génial » Demain, je pourrai aller n’importe où dans la rue, dans le monde, et j’aurais alors toujours dans la vue des informations supplémentaires en surimpression sur le lieu où je me trouve.
Sans compter tous les services que cela pourra apporter : guidage GPS dans le regard et d’autres applications qui restent à inventer.
C’est bien joli, mais est-ce que ça ne serait pas un petit peu trop, dans un monde où les jeunes générations passent déjà presque plus de 4 heures par jour la tête penchée sur leur téléphone ?
Alors, vous me direz, tant mieux, avec les lunettes de réalité augmentée, ils n’auront plus besoin de plier le cou et pourront profiter de Tiktok la tête droite tout en regardant le paysage.
Certes, certes… mais, à force, de vouloir faire rentrer le numérique à tout prix dans nos existences, n’y aurait-il pas un risque de nous rendre profondément schizophrènes ? Un pied dans la réalité (ou plutôt, devrais-je dire, un œil), un autre dans le numérique ?
Qu’en sera-t-il de nos relations sociales ? De nos interactions interpersonnelles ? Comment pourrons-nous vivre pleinement et sainement nos vies si nous sommes sans arrêt à un endroit et à un autre en même temps ?
Et que penser du risque d’informations (nous en avons déjà trop) non désirées qui risquent de nous envahir ? D’envahir notre champ de vision ?
Car, ne vous y trompez pas : quand la technologie bluffante est là, la publicité n’est pas loin.
Va-t-on vivre avec, sans cesse dans le collimateur avec des annonces publicitaires ? (vous me direz, c’est déjà le cas, dans la rue… c’est vrai… mais peut-être pas encore de manière aussi intrusive)
On n’empêchera pas les ingénieurs d’inventer et de jouer avec la technologie… mais nous, UX designers, devons aussi prendre en conséquences leurs inventions et créer des expériences qui aident les humains, mais ne leurs nuisent pas. Et même si il est toujours très difficile d’anticiper les dangers, il est important de toujours garder à l’esprit les conséquences de nos réalisations – les bonnes, mais aussi les mauvaises – pour savoir créer des expériences aux conséquences les moins nocives possibles.
J’ai déjà parlé ici de SNCF Connect, mais n’avais pas vraiment eu le temps d’y revenir depuis. La tentation était grande de donner aussi mon avis sur l’UX de la nouvelle appli, considérée comme plus mauvaise que sa prédécesseuse, mais cela aurait été un exercice trop risqué.
Ne pas connaître le contexte, se fier à son propre point de vue, n’avoir aucune vision des utilisateurs, tout ces domaines ne permettent pas d’offrir ce que j’appellerais une vision objective de l’UX d’une application. Et je l’avais d’ailleurs déjà dit dans un fil Twitter.
Nouvelle vague de SNCF bashing. En tant qu'expert UX, je vais vous donner mon avis sur l'appli.
–> je n'en ai aucun
Pourquoi ?
Parce que mon point de vue personnel ne avoir de valeur dans le jugement de l'UX d'une appli.
Mais un nouvel article très intéressant vient apporter un nouvel éclairage édifiant au contexte de création de l’application, qui, selon moi, ne pouvait que conduire au fiasco et à l’insatisfaction des utilisateurs de SNCF Connect.
Bon, allez, je vous avoue, je n’ai pas le courage de reprendre tous les points évoqués dans l’article (lisez-le, ça vaut le coup), mais je n’en retiendrai qu’une chose que je veux vous partager ici et qu’il me semble important de retenir.
On ne peut pas tout faire et tout changer à la fois quand on a une app qui est utilisée quotidiennement par des millions de personnes.
Le risque est beaucoup trop grand et ça n’a aucune chance de vous amener la réussite.
Qu’on me cite un seul site américain digne de ce nom qui a un jour tenté un pari aussi audacieux ? Pour le moindre petit changement, c’est déjà le crash... alors quand on s’amuse à changer l’UX, le design, la marque, la plateforme technique et qu’on change en plus la fonctionnalité principale de l’application, à quoi peut-on s’attendre ?
Et c’est vraiment étonnant de voir à quel point SNCF a fait tout ce qu’il ne faut pas faire pour cette refonte.
La pire, étant pour moi, expert UX, de ne pas avoir suffisamment testé l’app avec des utilisateurs externes.
Comment est-ce possible ? Comment avoir pu compté autant sur les ressources internes pour faire des tests utilisateurs ? Comment l’équipe UX a-t-elle commis cette erreur ?
Eh bien, ça n’est pas l’équipe UX qui a commis cette erreur, mais c’est la politique de confidentialité qui a présidé à la conception de l’app (au point d’en devenir ridicule) qui a présidé à ce choix forcément vecteur de nombreux biais et au résultat qu’on a vu (pas mauvais, en vrai, mais certainement un peu risqué, comme, par exemple, pour le fameux champ de recherche unique).
Un culte du secret pour ne pas alerter la concurrence difficilement compatible avec une culture produit, fait d’aller-retours permanents avec les utilisateurs.
Citation de l’article du Ticket
J’imagine que les équipes de SNCF Connect ont tiré largement les conséquences des choix qui avaient été fait pour réussir cette refonte et en ressortiront renforcées, mais cela laisse tout de même le goût amer d’un gâchis immense engendré par une volonté irréaliste de « faire un coup » incompatible avec la réussite d’un projet numérique.
Comment « le petit » SNCF Connect aurait pu réussir même la où les cadors US ne prennent aucun risque ?
C’est vraiment de l’arrogance et c’est vraiment typique d’une pensée verticale et descendante complètement en inadéquation avec les modes de production du numérique d’aujourd’hui :
Imposer des délais rigides
Sortir l’app lors d’un jour évènement
Changer la fonctionnalité principale de l’acte sans montée en charge progressive
Supprimer des fonctionnalités mineures, mais primordiales pour des groupes influents d’utilisateurs (power users)
etc
etc
Évidemment, il est facile de pousser sa petite critique a posteriori, mais je l’écris sans animosité et avec un certain recul, j’espère, (contrairement à d’autres experts qui ne se sont pas retenus pour exciter leurs petits fan club de followers), mais plutôt comme un avertissement aux entreprises qui ont la volonté de changer.
Les grands coups, les coups d’éclat, les changements à la hussarde ne sont pas fait pour le numérique.
(sauf si vous êtes Steve Jobs)
C’est beaucoup trop dangereux et source de frustration, de colère et d’argent perdu. Faire évoluer en silence et en douceur les choses (comme, par exemple, le récent basculement de modèle économique de AirBNB) sont bien plus efficaces que cette volonté de vouloir impressionner… on ne sait pas qui… et, en tout cas, certainement pas, de la manière dont les dirigeants de SNCF Connect s’y attendaient.
Pourquoi ne pas pouvoir faire des grimaces en 3D, c’est embêtant
Je me faisais la réflexion l’autre jour… mais si faire des réunion dans le Métavers, c’était mieux, il y a quand même un problème. On ne peut pas faire de grimaces avec les avatars. Et c’est plutôt embêtant. Car si le but des réunions immersives en 3D est d’améliorer la communication et de pallier aux défauts de la visio, se réfugier derrière des masques inertes ne va pas dans ce sens quand on sait que la communication non verbale est tout aussi importante que la communication verbale. Et notamment celle véhiculée par les multiples contractions et mouvements du visage.
Pour moi, c’est un des indicateurs que les promesses de Métavers pour les applications professionnelles manquent encore de maturité par rapport aux véritables besoins. Il ne suffira pas d’avoir l’effet d’étonnement de se retrouver dans un monde virtuel pour que le succès de celui-ci soit assuré. Il faudra arriver à beaucoup plus de réalisme que ce que nous offre Méta Workroom, l’application de réunion de Meta dans le Métavers.
Et d’ailleurs, avons-nous vraiment besoin d’être projeté dans un monde de synthèse pour nous réunir ? Pendant longtemps, nous nous sommes passés de la visio-conférence et nous reposions uniquement sur la voix pour échanger des informations et collaborer.
Mais la vidéo a sans doute apporté quelque chose. Je pense à la phase de démarrage et de conclusion d’une réunion, le temps où nous nous disons « bonjour », puis « au revoir ». Il y a, à ce moment, un besoin de se voir. Mais entre les deux, nous nous passons franchement de la vue des interlocuteurs. Car ce que nous y voyons ne nous aide pas à mieux communiquer. Voir la personne en face ne me semble pas pallier justement à cette communication non verbale. Et je reste d’ailleurs persuadé que de nombreuses visios sont assez improductives, car, en réalité, et sans même que nous nous en rendions compte, elles ne permettent pas une compréhension fine des messages que nous nous envoyons. Bien moins fine que lorsque nous nous retrouvons à plusieurs dans une même pièce. Ce qui est d’ailleurs, au passage, l’argument de Meta Workroom, qui permettrait de retrouver cette communication fine, à la fois verbale et corporelle. Mais qui me semble limitée du fait que l’imitation du monde réelle reste une imitation grossière, notamment en l’absence de tout ce que nous pouvons faire avec nos visages.
Je ne dénigre pas à nouveau le Métavers (même si j’aime bien le faire). J’essaie juste d’expliquer pourquoi cette pâle imitation de la réalité pourrait ne pas apporter ce que nous en espérons. Et par delà cette explication, de donner les raisons que nous ferions mieux de ne pas trop attendre de ce Métavers qui me semble encore beaucoup trop un concept faramineux sans réelle application possible de masse.
PS : en réalité, Méta travaille sur ce problème des expressions faciales. Le prochain casque de VR, qui porte actuellement le nom de Cambria, pourrait, d’après Mark Zuckerberg, permettre cette retranscription… cf l’article de Voicebot à ce sujet.