On le sait tous : parfois, créer des machines moins gourmandes en énergie, plus sobres, peut entraîner, paradoxalement, plus de dépenses d’énergie.
C’est ce qu’on appelle l’effet de rebond et il est fort connu quand on parle, par exemple, du domaine de l’automobile.
Les voitures d’aujourd’hui sont, par exemple, bien moins gourmandes que leurs aînées des années 70, mais pour autant, l’Automobile continue à polluer de plus belle, parce qu’en réduisant les coûts de consommation des moteurs de voitures, les gens se sont mis à rouler plus, plus souvent, plus longtemps, par compensation du prix. Annihilant l’effort qui avait été fait au niveau de chaque véhicule.
Explication de l’effet rebond en anglais (Source : https://www.energysufficiency.org/static/media/uploads/site-8/library/papers/sufficiency-rebound-final_formatted_181118.pdf)
L’écodesign pourrait-il mener au même problème ?
A savoir, créer des sites plus sobres pourrait-il entraîner une plus grande consommation de ces sites ? Et ainsi, à nouveau, annihiler l’effort qui avait été fait pour réduire leur empreinte carbone ?
Eh bien, ça n’est pas sûr.
En effet, le coût de consommation d’un site pour un utilisateur est nul (en termes pécuniaires). Qu’il l’utilise une heure ou deux heures ne changera rien pour son porte-monnaie. Tout au plus réduira-t-il un peu sa facture d’électricité, mais cela sera tellement négligeable qu’il n’y verra que du feu.
Autrement dit, rendre un site plus éco-responsable ne va pas entraîner chez le consommateur un besoin accru d’utiliser ce site.
Bien sûr, cela ne va pas dire qu’il n’y aura impact sur la consommation de bande passante du Web, mais un site éco-conçu, c’est à dire moins gourmand en énergie pourrait sans doute avoir surtout deux effets un peu contradictoires, et, à mon avis, pas proportionnels l’un à l’autre.
Cela pourrait très bien se confirmer dès lors qu’il s’agit de sites administratifs ou applicatifs, pour lesquels on est venu faire une chose en particulier. L’économie, dans ce cas, pourrait être flagrante.
Deuxième effet : un site éco-conçu devrait permettre d’aller plus vite pour passer une commande sur un site de ecommerce, mais, de part le confort d’utilisation qu’il offrirait, pourrait aussi permettre à des utilisateurs de passer plus de temps à faire du shopping, contrebalançant par là l’économie réalisée auparavant.
En fait, on le voit bien, il y a toujours deux facteurs à l’œuvre dans l’amélioration de la performance d’un site (ce qu’implique l’écodesign) : du temps gagné pour accomplir les tâches, du temps généré en plus pour continuer les mêmes tâches si elles font partie du domaine du loisir, du divertissement, dont le shopping fait partie, bien évidemment.
Mais, on pourrait se poser la question, ces deux effets s’annulent-ils ? En gros, ce que l’on gagne d’un côté, le perd-t-on de l’autre ?
Honnêtement, il n’est pas facile d’avoir de réponse tranchée… Même avec une étude… car il faudrait disposer de montagnes de données pour arriver à se faire une idée… et personne ne pourrait être capable de le faire, même Google…
Cela ne tranche pas le débat… Et sans doute qu’il faudrait explorer la question un peu plus loin, comme l’a fait récemment Tom Greenwood, expert ecodesign au Royaume Uni, que j’avais interviewé, et qui pense quand même que l’écodesign permet partiellement de s’affranchir de l’effet rebond : Are we trapped in the Jevons paradox?
Pour ma part, je ne pense pas qu’il faille réellement se poser la question. Concevoir des sites plus légers, plus rapides, plus faciles à utiliser va dans le sens d’une bonne UX. Et c’est exactement ce que permet l’écodesign. Il ne faudrait donc pas s’en priver. Et donc, il reste tout à fait utile de s’interroger sur la performance de son site, tout en se disant que d’améliorer sa performance est, d’une certaine manière, aussi une façon de réduire les émissions de CO2, malgré le fameux effet de rebond.
Il est urgent d’accompagner les administrations dans la création d’interfaces adaptées à leurs concitoyens
Cela fait longtemps que je me pose la question et que je me demande comment il serait possible d’aider les administrations et les services publics en tout genre à améliorer l’UX de leurs sites.
Non pas que tout soit à jeter, mais beaucoup de sites ou d’applications offerts par les mairies, les conseils généraux, régionaux, beaucoup de services liés à l’éducation, demeurent encore très en dessous de ce que les français sont en droit d’attendre de leurs administrations.
Il ne s’agit pas d’une exigence, mais il s’agit bien de mettre à niveau des outils qui soient utiles et utilisables par tout le monde, et pas uniquement par les plus aguerris avec le numérique. Il y a, selon moi, un véritable défi à relever pour parvenir à engendrer un processus vertueux de créations d’interfaces qui permettent vraiment de faire gagner du temps et de rendre efficace TOUS les services en ligne des administrations.
Encore trop d’interfaces archaïques
Or, c’est loin d’être le cas actuellement. Sûrement pour tout un tas de raisons variées, mais j’en vois au moins deux :
Les responsables politiques ou administratifs ont du mal à saisir les enjeux de l’UX. Ils ne connaissent sans doute pas bien le terme, mais plus encore, ils ne savent pas qu’il existe des possibilité pour accompagner leurs équipes informatiques pour travailler de fond en comble l’accessibilité de leurs interfaces à tous les niveaux
Il existe de manière encore trop répandue une mentalité parmi les équipes IT en charge du développement de ces applications qui rejette l’UX ou simplement la méprise, comme si elle n’était pas nécessaire. Ou comme si elle était superflue. C’est une mentalité que je connais bien et qu’il me semble encore nécessaire d’affronter, même encore après plus de quinze d’évangélisation de l’UX auprès de nombreux publics.
Quelles instances pour insuffler l’UX à tous les niveaux ?
C’est pourquoi je me demande si il ne serait pas utile de créer au niveau des régions des instances d’évangélisation et de formation à l’UX à la fois pour les personnes responsables des projets informatiques et mêmes des différents services fournis à leurs administrés, mais aussi pour les équipes en charge du développement, pour qui l’UX, en général, demeure une préoccupation secondaire.
Ce serait un travail de titan que de faire sa mise en œuvre et sa conduite, mais il me paraitrait nécessaire afin de mieux servir les français et de leur faire mieux profiter du numérique dans l’exercice au quotidien de leur citoyenneté.
A ce sujet, il me semble qu’un des meilleurs moyens de faire avancer les choses serait le testing systématique des interfaces des sites publics. Quand je dis « le testing », il s’agirait de conduire systématiquement des tests utilisateurs sur ces sites. Ces fameux tests utilisateurs que Wexperience conduit au quotidien pour ses clients dans le privé et qui se révèlent d’une redoutable efficacité quand il s’agit de convaincre et de faire changer d’avis les décideurs sur la nécessité d’intégrer l’UX à des projets informatiques.
Ca serait sans doute un accompagnement intelligent de toutes ces instances pour les aider à progresser et faire qu’elles puissent proposer de meilleurs outils Web à leurs concitoyens.
Qu’en pensez-vous ? Quelles solutions pourrait-on imaginer pour aider les administrations à améliorer l’UX de leurs sites ?
Quand ma mère, 74 ans, voulut prendre rendez-vous à l’hôpital pour prendre rendez-vous avec un spécialiste, la personne au bout du fil lui répondit qu’elle ne pouvait le faire que par le site Internet de l’établissement hospitalier. Elle raccrocha, puis essaya de se connecter au site… un quart d’heure plus tard, se sentant incapable d’affronter un formulaire récalcitrant, elle appela mon frère, l’informaticien de la bande, pour l’aider à prendre rendez-vous.
Quand j’eus besoin de modifier une location de véhicule et que j’appelai le service de réservation et que celui-ci me répondit qu’il ne pouvait rien faire, car j’avais effectué ma réservation sur Internet, un lent et lancinant désespoir m’envahit.
Cela vous est aussi arrivé ?
Pas étonnant ! Nombreux sont les systèmes nous renvoyant à notre impuissance. Impuissance de pouvoir se confier à humain pour résoudre à un problème. Impuissance des humains à pouvoir modifier le cours d’un algorithme.
Le tout numérique : une fausse bonne idée
C’est un vieux débat : « Pourquoi numériser entièrement un service peut mener tout droit à un enfer sur terre ».
L’ère du Web a amené aux entreprises une grande opportunité. Celle de déléguer à ses usagers/utilisateurs des tâches qui, auparavant étaient exécuté par leurs collaborateurs. L’utilisateur final, le client, l’usager, dans ce nouveau contexte, prennent, sans qu’ils en aient bien conscience, le rôle de l’agent de saisie et peuvent, tel est l’espoir de la numérisation, se débrouiller tout seuls sans recourir au temps et au service d’un autre humain.
Quel progrès ! Dans cette numérisation résidaient de nombreux avantages sur lesquels les entreprises allaient se ruer :
Réduire le coût humain de production de ce service
Déporter une partie du travail à accomplir sur l’utilisateur final
Industrialiser le service et le centraliser
Réduire l’empreinte carbone en réduisant les déplacements et la production de paperasse
Supprimer les irritants humains
Les entreprises privées s’y sont mises très rapidement, les administrations publiques dans un grand élan d’enthousiasme ont suivi, plus tardivement, avec un objectif de numérisation complète de toute « leur offre ». Un mouvement vers la modernité, pensait-on, un mouvement vers une plus grande efficacité, mais qui recelait des vices qui ne se révélèrent que lorsque les premiers dégâts apparurent.
Quatre raisons qui font qu’un service ne peut être entièrement numérisé
On l’a longtemps cru. Ou on a fait semblant de le croire pour éviter de se poser les bonnes questions : tous les services ne peuvent être entièrement numérisés. Pour plusieurs bonnes raisons.
Premièrement, parce que, il existe des opérations si complexes ou si lourdes qu’il ne peut pas être sérieux de les confier à des utilisateurs amateurs, comme l’est, la plupart du temps le grand public.
Deuxièmement, parce que la complexité du monde étant ainsi faite : il n’est pas possible, jamais possible d’anticiper les exceptions qu’un service peut subir de la part de ses utilisateurs et que, en conséquence, ces exceptions ne peuvent, par définition, n’être traitées que par des humains.
Troisièmement, parce qu’il existe, et qu’il existera toujours des personnes en souffrances face aux interfaces et à leur complexité. Et cela pour de multiples raisons : difficultés intellectuelles, handicaps, vieillesse, accidents, etc
Quatrièmement et dernièrement, parce que bannir totalement l’humain des services est couper le sens même du mot service, puisque par définition, il s’agit d’un acte de personne à personne, entre humains. Et cela, on l’oublie trop souvent.
Le tout numérique est un rêve de développeur ou de technologue, une illusion qui fait croire que la technologie peut toujours tour résoudre. Or, on devrait bien le savoir maintenant, il n’est est rien.. On peut toujours rêver d’IA, de systèmes auto-apprenant, de synthèse vocale, de multivers ou de je ne sais quel technologie magique, il existe irrévocablement des trous dans la raquette des systèmes informatiques que seuls des humains peuvent combler.
Les conséquences du tout numérique peuvent être dramatiques
La conséquence du tout numérique est souvent dramatique.
Si dans le commerce, elle ne peut conduire qu’à de la frustration. Dans le domaine publique, ses conséquences peuvent être bien plus graves.
De nombreuses personnes aujourd’hui n’ont plus accès à ces services publiques, car ils ont été remplacés par des machines !
Payer ses impôts, payer une amende, vérifier ses remboursements, de nombreuses démarches s’effectuent aujourd’hui en ligne. Et si ces démarches peuvent s’effectuer plus ou moins facilement pour le plus grand nombre de personnes, il n’est pas sûr que ça soit le cas pour l’ensemble de la population. Surtout quand ces services ont été conçus sans l’aide de l’UX. Et croyez-moi, il existe encore de nombreuses applications, de nombreux services publics qui n’ont absolument pas été pensés dans une démarche qui les rendrait accessibles à tous, et qui, de de fait, mettent en difficultés de nombreuses personnes.
L’humain, ce satané grain de sable dans la machine numérique
Deux aspects de la numérisation me semble souvent sous-estimés dans les projets de services numériques. Le premier a trait aux utilisateur eux mêmes. Le deuxième à la question essentielle qu’un service pour répondre parfaitement à son rôle doit d’une manière ou d’une autre inclure de la relation client/usager… autrement dit, mettre de l’humain dedans.
Un certain nombre de personnes, pour des raisons diverses seront toujours peu ou prou récalcitrantes aux services numériques
elles n’ont pas les moyens financiers et techniques de les utiliser (mais, c’est plus rare qu’on ne l’imagine)
elles n’ont pas les moyens cognitifs et intellectuels pour les utiliser : handicaps, mais aussi illettrisme, etc
elles ont des difficultés à utiliser la complexité des outils numérique (illectronisme)
elles sont récalcitrantes… là, il y a débat, mais il est difficile d’interdire totalement à ceux qui n’en veulent pas des services numériques… mais ça, ça n’est pas une question d’UX
L’humain, comme on aime à dire dans le marketing, reste une composante essentielle de la qualité de la relation client/usager… ne mettez d’humain nulle part et vous déshumaniserez (lapalissade, me direz-vous) totalement votre service jusqu’à en faire une horreur informatique. Je ne crois pas que nous voulions vivre dans le monde de Wall-e où tous les services sont délivrés par des machines et où nous ne serions plus que des consommateurs totaux, mais qu’au contraire, nous aurons toujours besoin de sentir et d’éprouver la présence humaine dans un service… par essence, ne l’oublions pas, nous sommes des êtres sociaux… et imaginer que tout ce avec quoi nous interagissons ne puissent être que des machines et des programmes me laisse songeur… voulons-nous vraiment d’un monde sans humain ?
Et enfin, n’oublions pas d’ailleurs que l’humain, sa présence, sa chaleur, ses émotions font aussi partie du service… amputer un service de sa partie humaine, c’est dégrader ce service… un bon service numérisé, c’est un service qui inclut de la relation humaine, paradoxalement.
On comprend bien, à cet aune, que le tout numérique repose sur un postulat de départ faux et qu’il nous est impossible de concevoir des services numériques sans y inclure la dimension humaine. J’en veux pour preuve simplement les systèmes de ventes de billets de train. Aujourd’hui, la plupart d’entre nous les achètent sur une application ou en borne en gare… mais lorsqu’il y a un problème, un souci, vers qui nous tournons nous ? La machine ou une personne bien vivante en chair ou en os ? Et que se passe-t-il quand nous nous retrouvons face à la machine seule ? Une colère immense !
La question du « comment on met de l’humain ? »
Mettre de l’humain dans les parcours numérique ? Voilà la vraie question : « Oui, mais comment ? » Comment intégrer l’humain dans les parcours utilisateurs pour que la qualité de service se maintienne, mais, que, dans le même temps, elle arrive à un équilibre économique qui ne la mette pas en péril dans le temps, autrement dit que ce service soit rentable… car, c’est aussi, à mon avis, et notamment dans le public, une erreur de penser qu’un service ne puisse pas être équilibré économiquement.
Mon propos n’est pas ici de fournir des méthodes de conception de parcours utilisateurs. Je pense qu’il y a aujourd’hui suffisamment de spécialistes de l’UX pour savoir quoi faire. Il est plutôt d’avertir les commanditaires de la nécessité de prendre en compte en amont de la conception d’un service de l’intégration de la dimension humaine de ce service.
Le tout numérique est une lubie dangereuse, qui sous la brillance et l’éclat de la technologie, pourrait faire croire à la solution à tous les problèmes. La vérité oblige à dire que rien n’est plus faux. Un bon service intègre à la fois de l’automatisation, de l’industrialisation, des algorithmes plus ou moins malins, mais aussi forcément de l’humain, voire parfois uniquement de l’humain pour certains types de clients/d’usagers.
[caisse sans caissière, on a quand même des gens pour aider, assister, et on peut se déporter vers les vraies caisses]
Je crois réellement, et j’en ai même la certitude, que les parcours humains doivent être non seulement aussi soigneusement conçus que les parcours numériques, qu’ils doivent être le plus accessibles possibles, et que c’est parcours doivent être intégrés harmonieusement et parfaitement aux parcours numériques.
Dans l’absolu, il devrait pouvoir toujours être possible de se retourner vers un interlocuteur humain lorsque « J’ai un problème »… ce qui est honnêtement une possibilité plutôt rare.
Combien de sites cachent leur numéro de téléphone dans les tréfonds d’une FAQ ?
Combien de sites affichent des chatbots aussi inutiles, idiots et inefficaces que possible, prétendant imiter l’intelligence humaine, mais incapables d’apporter aucune aide ?
Combien de sites renvoient sur de vieux services vocaux téléphonique digne d’une mauvaise dystopie ?
Combien de sites ne tentent même pas de répondre humainement à leurs utilisateurs ?
Combien de sites répondent à des emails 3 jours plus tard alors que c’est maintenant ou tout de suite que l’on a besoin d’eux ?
En réalité, beaucoup de services esquivent cette problématique et préfèrent ne pas entendre les complaintes. Pensant qu’un client/usager silencieux est un client/usager content.
Mettre des humains en face d’autres humains est compliqué
Certaines personnes pensent qu’il suffirait de revenir en arrière dans un monde sans numérique… un monde avec des gens derrières des guichets… un monde passé sur lequel il est facile de fantasmer… en oubliant, très certainement pour ne pas l’avoir vécu, à quel point il était pénible de faire des démarches auprès des administrations et du temps que nous y perdions, pour un document oublié, un horaire dépassé, une file d’attente trop longue.
Elles prônent un retour de l’humain en reniant totalement les apports du numérique. En oubliant totalement les économies réalisées et les gains de temps réalisés pour tous. Car oui, la numérisation, c’est aussi beaucoup d’avantages comme on l’a déjà dit en ce début d’article.
Les bureaux de la securite sociale avenue SimonBolivar a Paris en 1946 (La Securite Sociale fut creee le 4 octobre 1945 en France.) — Offices of French national health and pensions organization in Paris in 1946
La solution consiste donc bien sûr à mettre en place des parcours utilisateurs/usagers qui mêlent les deux types de relations : numérique et humaines. Or, les entreprises, qu’elles soient publiques ou privées semblent rechigner assez facilement à avoir cette approche.
J’avais eu un bref échange à ce sujet, sur Twitter, à propos du support d’Apple. Quelqu’un avec qui je chattais s’étonnait et s’émerveillait de la qualité de ce support en se demandant pourquoi beaucoup d’autres marques ou services ne parvenaient pas à fournir une telle qualité d’écoute, d’échange et de résolution de problèmes.
Je lui disais que c’était parce que je pensais que beaucoup de marques ou d’entreprises traitaient le support téléphonique comme une fonction subalterne servie par des gens qui n’ont aucun plaisir à faire ce métier en leur demandant d’ânoner bêtement des questions/réponses devant leur écran d’ordinateur (je le sais, j’ai fait ça pendant un an pour Orange, il y a fort fort fort longtemps).
Et j’ajoutais que si Apple (ou, par exemple, la MAIF, que je trouve exemplaire à ce sujet) arrivaient si bien à satisfaire leurs clients/usagers hors web, c’est tout simplement parce que ces deux sociétés ne considéraient pas le canal téléphonique comme un truc hasbeen qu’il faut faire par nécessité, mais comme un canal aussi noble et respectable que le numérique. Et que les collaborateurs travaillant dans ces sociétés n’étaient sûrement pas traités comme des bêtes de sommes de la relation client/usager, mais comme des personnes investies d’une véritable mission, avec l’autonomie qui en découle.
Je me trompe peut-être, mais si je devais mettre en place un service client humain, c’est comme cela que je m’y prendrai. Et j’attacherai autant d’importance à ces parcours qu’à mes parcours numériques. En y pensant, non comme un canal à part, mais comme un tout dans lequel l’interlocuteur humain serait un moyen comme un autre de parvenir à un objectif pour l’utilisateur.
Le faux surcoût de l’humain
Vous me direz : « ça coûte cher ! »
Oui, l’humain, ça coûte plus cher qu’un algorithme et de la bande passante, mais la qualité aussi coûte cher. Et la qualité, c’est ce que nous voulons fournir, pas montrer au monde que nous avons entièrement numérisé un service. L’objectif, ça n’est pas la numérisation. L’objectif, c’est de délivrer un bon service en intégrant le mieux possible l’humain et la machine. Mais, on a trop tendance à penser les choses séparément. Pour une mauvaise raison : les UX designers travaillent rarement de concert avec les équipes humaines en charge de la relation client/usager. Ça n’est pas dans leur culture… et c’est, j’ai l’impression, rarement prévu dans l’organisation de l’entreprise…
Autrement dit, les UX designers, les devs, créent leur produit, leur logiciel avec son interface, et mettent par endroit des petites prises (comme des prises électriques) en disant au service client : « C’est là que vous pourrez vous brancher »… mais sans se demander ni savoir si cela aura une cohérence avec l’UX numérique, ni si cela se complète réellement, ni s’il y aura une interaction entre les deux mondes (par exemple, il est toujours frustrant d’appeler un ecommerçant qui ne sait pas que vous êtes sur son site avec des produits dans votre panier et que vous avez besoin de son aide pour finaliser une commande)…
Ce n’est pas en demandant aux utilisateurs de s’adapter qu’on fournira un meilleur service
Le rôle de l’UX est bien de prendre en compte tous les utilisateurs, autant dans leur diversité que dans leurs défauts spécifiques. Et je trouve qu’on devrait plus réfléchir à la conception d’application en prenant en compte ce spectre de variabilité au sein de la communauté des utilisateurs/clients d’un produit numérique. Et c’est d’ailleurs en en prenant compte, et pas en se disant que les clients/usagers s’adapteront, que l’on créera les meilleurs produits numériques.
Créer un bon produit numérique n’est pas créer un produit avec des interfaces ludiques et amusantes, belles et engageantes, bien programmées avec la dernière technologie en date… non, créer un bon produit numérique, c’est créer d’abord un service, dont le numérique est une composante, en se posant bien la question de la manière dont les utilisateurs du service vont l’aborder… Vous seriez étonné de savoir qu’il n’y a pas qu’une seule manière, et pas qu’une seule sorte de gens.
Concevoir un bon service numérique nécessite de regarder en face ce qu’on a peut-être pas envie de voir.
Il y a ici peut-être une vérité assez douloureuse à dire, mais qu’on se la dise quand même. Les gens qui conçoivent des produits numériques sont pour la plupart des personnes jeunes, éduquées, se ressemblant assez socialement, constituant même une véritable classe au sens classe sociale telle qu’aurait pu la définir Marx, et l’idée même de concevoir des parcours pour des gens qui ne leurs ressemblent pas, leur sont éloignés par les capacités, le niveau de vie, les usages ou l’âge, constitue une épreuve supplémentaire pour eux. Certes, je le vois sur les réseaux, la communauté UX s’est largement emparée des sujets d’accessibilité ou d’inclusion. Pour autant, les parcours utilisateurs créés par cette communauté reflète-t-elle vraiment cette aspiration ou cette volonté de bien faire ?
Il y a 3 ans avec Wexperience, nous nous étions beaucoup intéressés au sujet de l’accessibilité, et avions commis quelques articles et conférences. Nous avions formé notre équipe, devs et designers, et avions largement relayé auprès de nos clients la possibilité d’intégrer cette dimension à la conception de leurs interfaces. Beaucoup de reconnaissance avait accompagné cette démarche, mais, dans les faits, elle resta lettre morte, même si nous poussons encore parfois des tests utilisateurs, en incluant des personnes handicapés dans nos panels de testeurs, il reste difficile de faire évoluer la prise en compte d’utilisateurs « différents » par rapport à la masse.
Oublier la relation humaine dans le numérique : un manque professionnel
Le problème de ne pas intégrer les parcours humains dans les parcours numériques n’est pas qu’un problème économique, mais aussi, je pense, un peu, un problème culturel et une forme de paresse et un manque de volonté d’aller jusqu’au bout. Et nous en sommes tous un peu responsables, nous les designers, mais aussi nos commanditaires, car nous avons toujours le souhait d’aller au plus vite, au plus simple. Mais dès qu’il s’agit de sortir de « nos rails », de nos interfaces, de nos écrans, nous sommes pris d’une léthargie fatale qui affecte, en bout de chaîne, les plus démunis face au numérique.
Nous le savons, mais il semblerait que pour nous en soyons convaincus vraiment nous devions en éprouver les conséquences dans leurs manifestations les plus désagréables : l’impuissance des utilisateurs, leur colère, et pour finir la haine des services numériques.
Les métiers de l’UX ont pris beaucoup de place dans la conception de produits et services numériques. J’eus l’occasion d’en discuter avec le responsable UX d’une grande enseigne de distribution récemment qui a vu les effectifs de son équipe se quintupler en à peine deux années, et qui m’affirmait à quel point toute la division numérique dont il faisait partie prenait de l’importance au sein du staff du siège de l’entreprise, au point de devenir la force prédominante de transformation de cette entreprise. Ce n’est donc pas un manque de moyens qui nous impose de ne pas penser à l’humain, mais bien un manque d’ambition et un aveuglement coupable.
Conclusion : apprenez VRAIMENT à penser pour les deux mondes, le physique et le numérique
Le numérique est en train de s’immiscer au sein de toutes les structures humaines en y apportant des économies d’échelles conséquentes dans le façon de produire des services. Pendant quelques années, la croyance que le tout numérique allait nous épargner la conservation d’équipes humaines pour assurer la relation client prédominait, puis on a découvert (alors que nous le savions déjà) qu’il n’était pas possible de numériser entièrement des services et qu’il fallait non seulement conserver des humains au sein des parcours clients/usagers, mais en plus de cela, en faire une dimension indispensable de ce service.
Un jour, pourrons-nous échanger des blagues avec les robots pizzaiolos.
Sans humain, pas de services… on ne pourra jamais demander à un robot pizzaiolo échanger des blagues avec vous pendant qu’il vous prépare une Margharita… et c’est non seulement dommage, mais ça serait aussi une erreur de ne pas pouvoir le permettre. Parce que l’humain cherche constamment de l’humain dans tous les services qu’il utilise. Non pas pour le plaisir, mais parce qu’il en a besoin. Parce que c’est vital pour lui.
Concevoir un service en y intégrant du numérique doit donc absolument prendre en charge les nombreux cas d’utilisateurs qui non seulement sont rebutés par le numérique, mais ne peuvent tout simplement pas y accéder comme la moyenne. Mais plus encore : ne considérez jamais qu’une app, une FAQ, un chatbot pas très intelligent ou une hotline vocal remplaceront efficacement un humain pour assurer une qualité intégrale de service.L’humain est un rouage essentiel de la machine ! 🙂 Ne vous y trompez pas. Et plus encore quand il s’agit d’assurer des services de mission publique, universelle par définition, dont il est interdit d’exclure qui que ce soit.
Répondez à un questionnaire de 5mn pour nous aider à comprendre les usages en matière de tests utilisateurs.
Nous sommes une agence UX depuis plus de 12 ans. Dans le cadre d’une étude de marché pour la conception d’un outil d’assistance aux tests utilisateurs, nous recherchons des UX designers, researchers, design ops, chefs de projet, product owner qui pratiquent déjà les tests utilisateurs dans leur métier.
Notre objectif : mieux comprendre les usages et les points bloquants ou freinants dans l’adoption de cette méthodologie.
Vous avez envie de nous aider à mieux faire de l’UX ? Alors prenez le temps de nous répondre. Nous vous en serons éternellement reconnaissant.
J’étais invité hier soir à une soirée de remise de prix des meilleures expériences utilisateurs des sites du domaine de la finance par Google.
Une soirée riche en rencontres et en enseignements qui m’a permis de me rendre compte de l’importance qu’attachait Google à l’UX désormais.
On savait déjà, depuis les Core Web Vitals, que c’était devenu un critère de différenciation pour le SEO, mais il semblerait désormais que Google veuille aller plus loin et pousse ses clients à réellement se préoccuper de la manière dont ils gèrent ses parcours utilisateurs.
La raison en est simple… meilleure sera l’UX des sites auquel Google apporte du trafic, plus cela rapportera à Google. Une meilleure UX voulant dire un meilleur taux de rebond, un meilleur taux d’engagement et un meilleur taux de transfo, cela signifie aussi des hausses d’achats de mots clés. Cercle vertueux !
Rien de tel qu’une petite terrasse parisienne avant de se plonger dans les mystères de l’UX chez Google
Mais peu importe la raison, le fait est que cette attention particulière portée à l’UX permet de créer des expériences qui améliorent les besoins des utilisateurs. Et, hier soir, même s’il ne s’agissait que de parler du domaine de la finance, tout ce qui était récompensé révélait les best-practices de l’UX tels que Google les recommande.
Félicitations aux gagnants, dont Cofidis et Sofinco, des clients de Wexperience, mais aussi à Meilleurtaux Assurances, basé à Lille. Les nordistes étaient encore présent en masse hier soir. Cocorico !
D’après Google, ce qui fait la différence dans les entreprises pour améliorer l’ux, c’est l’organisation et être customer centric. #googlepic.twitter.com/9g22J5c0o7
Meilleurtaux assurance, grosse stratégie #UX remporte la première place de la meilleure progression en un an chez #google. Bravo à eux ! (Et c’est des nordistes) pic.twitter.com/E177CQWDCI
Et toujours retrouvailles sympas quand on est dans la vraie vie. Ici, avec Nicolas Auvinet, Directeur du Numérique chez April Moto, l’assureur des motards, un client WEX !!!
Le Métavers plus facile à utiliser que l’Internet, vraiment ?
Un des arguments des défenseurs du Métavers est qu’il permettra de rendre les interactions homme-machines plus faciles, plus simples et donc plus accessibles. Notamment, le Métavers pourra permettre à des personnes en difficultés avec le numérique de pouvoir plus simplement,par exemple, effectuer des démarches administratives.
Un autre de ces arguments est que le Métavers pourra permettre des activités de shopping pour le monde réel améliorées.
Malheureusement, je ne crois pas du tout à cette promesse. Ce n’est pas parce que nous imitons le monde en 3D qu’il est plus facile d’utilisation. Au contraire, ça serait même sans doute l’inverse. Car ce que nous prenons pour de la réalité, n’en est, en fait, qu’une mauvaise imitation, très limitée, et obligeant les utilisateurs à un apprentissage qui est loin de reproduire les interactions naturelles de la vie de tous les jours.
Et c’est en cela que je pense que beaucoup de pronostiqueurs se trompent sur l’utilisabilité du Métavers.
Rien n’est naturel dans le Métavers
D’abord, rien n’est naturel dans le Métavers.
Le corps humain est projeté dans un univers dans lequel tous ses sens sont trompés. Seule la vision est à peu près respectée, mais pour le reste, tout est factice : l’odorat n’est pas sollicité (même si j’ai déjà vu un prototype de casque capable de reproduire certaines odeurs), les sons sont spatialisés, la température n’est pas rendue, l’espace dans lequel se meut l’utilisateur est distendue par rapport à la réalité des déplacements.
Tout cela demande une adaptation de l’utilisateur, notamment au niveau de l’équilibre. C’est un des effets les plus rebutants des casques de VR : la sensation de nausée, dû au décalage entre ce qui est vu et ce qui est réellement vécu par le corps. Quelques études commencent à sortir sur ce sujet et elles montrent que c’est encore un problème prédominant.
Qui plus est, même si quelques personnes pourraient être aptes à porter un casque longtemps pendant la même journée, ça ne sera sûrement pas le cas pour la majorité des utilisateurs. Outre le fait que ça sera sûrement très inconfortable, mais avec des progrès dans ce domaine, le fait d’être occulté du reste de votre environnement pose de sérieux problèmes sociaux que le casque de VR ne pourra pas empêcher.
Une ergonomie loin d’être parfaite
La deuxième difficulté réside dans l’interactivité du casque en lui même… ou plutôt de ce qu’il y a à l’intérieur.
Pour l’avoir essayé, l’Oculus, le casque de Méta, n’offre pas pour l’instant une ergonomie satisfaisante. De nombreux progrès restent à faire, notamment dans les interfaces internes qui obligent à viser avec un rayon des boutons qui se trouvent (virtuellement) à plusieurs mètres de l’utilisateur.
Pour l’instant, de nombreuses applications utilisent les manettes fournies avec le casque. Ces manettes sont assez compliquées à prendre en main, du fait, qu’elles possèdent plusieurs boutons, qu’il n’est pas vraiment possible de voir, mais dont le fonctionnement, la plupart du temps est à deviner par l’utilisateur, car chaque application les utilise différemment. Honnêtement, ça sera compliqué pour ceux qui ne sont pas très familier avec ce type d’interface.
Méta travaille tout de même sur des améliorations et il est même possible d’utiliser directement ses mains dans le Métavers, ce qui est assez bluffant. Vous pouvez voir vos mains, les utiliser, mais ce ne sont pas vos mains… ce qui est à la fois étonnant, mais gênant, car, bien évidemment, la précision de ces mains n’est pas du tout équivalente à la précision de vos mains réelles.
Autre problème, vous ne pouvez pas toucher les choses… vous avez l’impression de pouvoir le faire, mais, en réalité, vous ne rencontrez toujours que le vide. C’est encore une grosse différence avec la réalité : il n’y a pas de retour de force, pas de sensation de toucher. Même si je sais que des entreprises travaillent sur ces sujets, et qu’il sera sans doute possible un jour de le faire, il est dur d’imaginer de devoir enfiler des gants, mettre un casque pour aller faire des démarches simplement et rapidement, même dans un avenir un peu lointain.
Qu’on oublie pas que ce qui avait fait le succès de l’iPhone était sa simplicité. Avec le Métavers, son casque, et peut-être ses autres équipements, on en sera loin. Plus encore, parce que cet équipement ne pourra pas être utilisé dans un lieu ouvert ou public…
Le Métavers ne sera pas une réalité alternative
On le voit bien, le Métavers ne sera pas la réalité ou une réalité alternative. Ça sera bien une réalité dégradée qui nécessitera pour tous les utilisateurs un apprentissage supplémentaire de leurs compétences numériques. Et cela prendra du temps et tout le monde n’y parviendra pas avec la même facilité.
Est-ce que cela signifie que le Métavers ne pourra pas prendre forme tel qu’il nous est promu par ses laudateurs ?
Pour moi, la promesse du Métavers ne fonctionnera que si les moyens d’y accéder seront simples et intuitifs. Et aujourd’hui, nous en sommes très loin.
Le casque de Méta est plutôt impressionnant, mais il reste un outil de joueur de jeux vidéos. Et sa qualité n’en fait pas un appareil que l’on peut utiliser sur du long terme.
Ça n’est pas non plus un appareil que l’on pourra emporter partout avec soi. Et si l’on veut que le Métavers soit l’Internet du futur comme n’arrêtent pas de le proclamer les gens de Méta, il faudra bien pourtant que ça soit le cas.
Alors évidemment, actuellement, tous les regards sont aujourd’hui sont braqués sur ce que pourrait faire Apple. La société californienne a toujours sur inventer des produits qui révolutionnent les marchés. Mais, d’après les dernières nouvelles, ses lunettes de VR/AR ne sortiraient pas avant le 3ème trimestre 2024, reculant encore un peu plus l’opportunité de lancer un véritable marché sur le Métavers.
Faut-il expérimenter dans le Métavers ?
Reste une dernière question : étant donné l’état des lieux du Métavers qui est encore très très loin du rêve vendu par Mark Zuckerberg, faut-il, pour une société se lancer dans des expérimentations, comme c’est déjà le cas dans de nombreux domaines (cf Carrefour, les marques de luxe ou de sport, comme Adidas ou Nike) ?
Pour moi, il est possible de se lancer dans des concepts, mais sans se dire que celui-ci pourra être un succès avant quatre ou cinq ans.
Il ne faut pas non plus imaginer pouvoir parvenir à trouver la killer app tant que les usages ne se seront pas généralisés.
Il faut donc pénétrer dans ce monde là avec un esprit extrêmement ouvert prêt à de nombreuses expérimentations et surtout s’éloigner du piège de la pure imitation qui n’apportera rien.
Les applications qui fonctionneront dans le Métavers seront celles qui tireront partie de ses différences :
L’immersion : en quoi cela peut-il être un avantage ?
La possibilité d’interagir dans un monde en 3D avec un certaine proximité avec la réalité : pour quels usages ?
L’usage systématique d’un avatar : quelles règles sociales en sont modifiées et pour quels bénéfices ?
Pour moi, deux pistes se dessinent nettement aujourd’hui : le divertissement, déjà largement développé avec les univers de jeux qui s’apparentent au Métavers, et les simulations professionnelles pour l’apprentissage, dont il reste beaucoup de choses à faire. Mais nous verrons bien ce qu’il en est … encore quelques années de patience !
Encore des rumeurs sur les fameuses lunettes de RA/RV d’Apple et je me faisais la réflexion de l’adoptabilité des lunettes de réalité augmentée que pourrait offrir Apple à ses utilisateurs. Qu’en serait-il ? Serions-nous prêts dans un proche avenir à porter en permanence des lunettes qui afficheraient continuellement des informations dans notre champ de vision ?
Concept datant de 2020, déjà !
Pour moi, c’est une des questions essentielles des chances de succès d’un tel terminal. Car d’une certaine manière, des lunettes de RA seraient sans doute l’appareil du quotidien le plus intrusif que nous pourrions posséder.
Un terminal plus intrusif que les autres
Un téléphone peut se mettre dans la poche et être oublié. Une montre connecté est portée en permanence, mais peut aussi être éloignée du regard et oubliée. Pas des lunettes. Ou bien à considérer que l’on pourra les mettre ou les enlever facilement, seulement lorsqu’on en aura besoin. Ce qui me semble être une habitude complexe. Les lunettes sont des objets bien plus fragiles qu’un téléphone ou une montre. Il faut aussi en prendre un bien plus grand soin et les maintenir propres pour correctement s’en servir. Les manipuler fréquemment augmentera le risque des les abimer, ce qui, pour du matériel, qui sera forcément très cher, pourrait être un frein à leur adoption.
Dès lors, si le geste de les utiliser crée un risque ou représente une difficulté, il faudra alors admettre que les lunettes n’auront un intérêt que dans des contextes particuliers ou des intentions particulières.
Des usages plus restreints ?
Comme faire du sport pour obtenir des informations améliorant sa pratique en permettant d’afficher des informations dans son champ de vue (je pense au vélo).
Pour travailler ? Mais cela ne cadre pas forcément avec l’esprit d’Apple dont toutes les dernières inventions tenaient quand même largement du divertissement et visent toujours les marché du grand public. J’imagine mal Apple sortir un produit uniquement pour les professionnels. Elle a toujours échoué à le faire.
Se divertir ? C’est sans doute la piste la plus probable, mais comment Apple pourrait intégrer des lunettes de RA dans un écosystème où l’iPhone tient une place prépondérante et centrale par rapport à tous les autres devices ? Ces lunettes seraient donc un accessoire supplémentaire dans la gamme (tout comme le sont les airpods) enrichissant les fonctionnalités de l’iPhone. Elles ne devraient donc pas entrer en concurrence avec ce dernier.
La question des usages pose aussi celle de l’écosystème. Et c’est peut-être pour cela qu’Apple prend beaucoup de temps avant de dévoiler son futur terminal. Avec la sortie de l’iPhone, la société avait également développé entièrement un environnement d’exécution : l’iOS. Cela sera-t-il le cas pour les lunettes d’Apple (qu’elle soit de réalité augmentée ou de réalité virtuelle, ou les deux, d’ailleurs) ?
La question de l’utilisabilité : vers une nouvelle gestuelle ?
Et si un nouveau système était créé se poserait également la question des interactions homme-machine des lunettes. Un travail formidable avait été fait sur l’iPhone et avait permis son adoption massive et facile. Quelques inventions y avaient vraiment contribué. Le système des icônes/application, très simple à comprendre et à utiliser. La gestuelle des doigts sur l’écran dont Steve Jobs avait ait une démonstration lors de la keynote de présentation de l’iPhone et qui avait sans cesse était reprise par la pub pour préparer les futurs acheteurs de l’iPhone à son utilisation. Le clavier virtuel et sa loupe qui avaient vraiment été un « game changer » pour franchir l’obstacle ô combien complexe de la saisie d’informations sur les téléphones.
Comment pourraient se piloter les futures lunettes ?
Par Siri ? Cela semble improbable tant la reconnaissance vocale est encore trop approximative, même pour des ordres simples.
Par une nouvelle gestuelle ? Ça sera intéressant de voir ce qu’Apple pourrait avoir inventé à ce sujet et si cela pourra être aussi facile à faire adopter que celle de l’iPhone.
Conclusion : les lunettes seront-elles une révolution ou le terminal en trop dans un monde numérique saturé ?
Et puis la question de l’adoptabilité se pose aussi sous l’angle de la saturation des usages. A l’ère de l’iPhone, le monde n’était pas encore envahi par le numérique. C’est même lui qui a sans doute été le déclencheur de cette invasion. Des lunettes ne seraient-elles pas le terminal de trop ? Aujourd’hui, nous n’avons pas besoin d’être plus connecté… nous le sommes déjà de bien trop grande manière avec de nouveau risques en train d’émerger, sur la santé, par exemple. Le risque de se heurter à cet état de fait ne risque-t-il pas de limiter les ambitions d’Apple ?
Vous travaillez dans le numérique (SEO, SEA, marketing, design, dev, etc.) et vous cherchez un endroit où vous poser pour travailler tranquillement et vous retrouver entre pairs, notre bureau situé en plein centre de Lille à côté des gares est exactement ce qu’il vous faut !
4 places de coworking individuelles sur un plateau de 160m2
Accès facile par le métro (à équidistance de la Gare Lille Flandres et de la Mairie de Lille) ou à vélo (on a fait poser des bornes par la Mairie)
Espace restauration partagé (avec micro-onde et frigo)
Wifi haut-débit fibré
Imprimante partagée
Salle de réunion partagée
Possibilité de louer en plus notre superbe studio d’études marketing avec vitre sans tain
Et en plus, des vrais gens sympas à retrouver tous les jours pour ne pas vous sentir seul ✌️
Venez visiter pour être séduit 😘
Infos pratiques :
Tarifs :
Location pour 3 mois min ou à l’année / Possibilité d’hébergement de siège social
Nos formules : 200€ ht/place/mois* pour un engagement de 3 mois minimum 180€ ht/place/mois* pour un engagement de 12 mois minimum
*Les prix des loyers affichés incluent les charges
Pour toutes questions, n’hésitez pas à contacter Olivier
olivier@wexperience.fr
06 59 38 92 92
📸 Quelques photos :
Et pour plus de photos, on vous invite à découvrir notre page Google Business 👈
Pourquoi, en tant qu’UX designer, vous devez aussi particulièrement vous préoccuper du code d’un site web
Peut-être cela semble-t-il évidemment, mais le design d’expérience ne s’arrête pas à la conception de maquettes sur Figma ni à l’intégration HTML ou au développement de scripts pour animer des pages webs.
Une des dimensions de l’UX qui nous semblent souvent négligée est la mesure et l’optimisation de la performance des pages webs. Pour quelle raison ?
Parce que cette dimension de l’UX est entre les mains des développeurs front-end et que souvent elle reste « oubliée » par les équipes de design qui semblent se décharger de cette tâche par la peur ou la méconnaissance de ce sujet, ou bien encore, parce qu’elles considèrent que ça n’est pas de leur ressort.
Chez Wexperience, c’est pour cela que nous avons aussi une équipe IT qui se préoccupe de ces questions et travaille en accord avec l’équipe design pour englober dans le design d’expérience cette dimension essentielle.
Pour bien comprendre ce que cela recouvre, nous vous proposons ici un article qui vous montrera comment optimiser la performance d’une page pour une meilleure expérience utilisateur.
Même si cela peut paraître évident, optimiser les pages webs, c’est à dire les débarrasser de leurs « surpoids » permet tout simplement d’améliorer l’UX d’un site en réduisant les temps de latence entre les clics, en affichant plus vite les pages, les éléments importants de ces pages, en rendant plus réactive l’interface, bref, en répondant mieux au fameux critère de Bastien et Scapin du feedback immédiat.
Mais si cela semble si évident, pourquoi cela n’est-il pas codé immédiatement dans le site sans qu’on ait à s’en préoccuper ?
Bien entendu, parce qu’il n’est pas si simple d’optimiser immédiatement le code ou les médias d’une page, et que les habitudes de programmation normales des développeurs négligent couramment ce problème. Disons, d’un point de vue d’ergonomie du travail, qu’il est plus rapide, plus facile et plus économique de coder « mal » ou, pour être plus exact, d’arriver à un résultat acceptable de code sans que celui-ci aille à fond dans l’optimisation.
C’est le résultat classique de tout travail où l’ouvrier ou l’artisan accepte un certain degré de précision, d’effort, et d’exigence pour constater que son travail est accompli, tandis qu’une optimisation accrue lui demanderait un effort qui, selon ses critères n’en vaudrait pas la peine.
En fait, pour être tout à fait clair, nous travaillons tous de manière à optimiser nos efforts en respectant la Loi de Paretto (les fameux 80-20%) qui fait qu’une fois atteint un certain seuil de qualité, nous ne sommes plus prêt à faire un effort supplémentaire pour arriver à un certain niveau de perfection. L’effort n’en vaut plus la peine.
Autrement dit, il y a le « code normal », et le « code optimisé », le second demandant nécessairement un effort supplémentaire, un surcoût. Et la question qui se posera au final à l’UX sera : « Cet effort supplémentaire vaut-il le coup ? » et surtout « Servira-t-il mon UX ? ».
Quels sont les critères d’une bonne optimisation ?
La réponse à cela ne dépend pas de votre niveau d’exigence, mais bien heureusement à des critères objectifs définis par Google dans le but d’améliorer le SEO des pages : les Core Web Vitals. Et c’est plutôt une bonne nouvelle pour une discipline qui a tant de mal à quantifier et à valoriser les efforts qu’elle fait.
Les 3 principaux Core Web Vitals de Google. Ces critères permettent d’évaluer le comportement d’une interface selon des critères objectifs. Par exemple, le temps d’affichage du plus grand élément de la page. Le temps d’accession au premier objet interactif d’une page, etc. Ces critères ont été inventés et promus par Google auprès des agences SEO pour leur permettre d’améliorer le ranking des pages en tenant compte de l’UX.
Ce sont une série de paramètres (dont nous avons déjà parlé ici) qui permettent de mesurer objectivement un ensemble de comportements d’un site web et de son interface afin de fournir une meilleure expérience utilisateur.
C’est une bonne nouvelle, puisque grâce à ces critères, il est possible de savoir si dans tous les cas un site a un bon ou un mauvais comportement. Ce qui permet ensuite de savoir ce qu’il faut faire pour arriver à un résultat acceptable.
Quels sont les leviers de l’optimisation ?
L’optimisation de la performance des pages webs passe par trois familles d’actions :
L’optimisation des médias
L’optimisation du code
L’optimisation de l’infrastructure de portage du code (hébergement, entre autres)
Familles d’action que nous allons maintenant regarder en détail. Rassurez-vous si vous n’êtes pas développeur, cet article est fait pour vous, car il a pour objectif de vous faire prendre conscience de votre rôle en tant qu’UX designer dans l’optimisation des pages. Et qui sait, si vous êtes développeur, apprendrez-vous vous aussi quelques techniques.
L’optimisation des médias
Sur le web, il existe plusieurs types de médias qui sont téléchargés dans le navigateur. En fonction de leur poids ou de leur taille, ceux-ci peuvent ralentir dans une plus ou moins grande mesure la réactivité ou les temps de chargement de vos pages.
On peut grosso modo les séparer en 5 types :
les images, au premier chef
les vidéos
les polices de caractères
les sons
tous les autres types de médias : documents pdf, slideshow, etc
Les plus importants et ceux sur lequel il y a le plus de marges de manœuvres sont les 3 premiers, et nous en avons déjà abondamment parlé au cours de plusieurs webinars :
Sans aller dans le détail, voici quelques techniques, pour les résumer, qui sont couramment employées.
Optimisation des images
La compression des images qui consiste en utilisant les bons algorithmes de compression de réduire leur taille et leur poids… des gains de plus de 70% peuvent parfois être obtenus
L’utilisation de formats alternatifs, par exemple le SVG, qui dans certain cas, vaut mieux que les formats classiques comme le jpg, le png ou le webp ou avif.
Parfois, il est possible aussi d’utiliser des polices de caractères comme images pour représenter des icônes. C’est une excellente technique pour gagner du poids et du temps de téléchargement
Optimisation des vidéos
Même si elles sont indispensables, les vidéos sont les grandes méchantes du web en terme de performance. Leur poids et leur taille consomment énormément de bande passante, d’autant qu’elles sont souvent le média préféré des internautes. Il n’y a qu’à voir le succès de Tik Tok et des Stories sur Instagram.
Dans son opus sur l’écodesign, l’association des designers éthiques nous donne quelques recommandations basiques qui permettent de se poser les bonnes questions dont la première qui consiste à se demander si une vidéo est vraiment utile (sachant que la réponse n’est pas toujours simple en ecommerce).
Ne mettez pas de vidéo si elles n’apportent pas quelque chose de plus à l’expérience utilisateur
Raccourcissez la durée des vidéos à moins de 30s dans la majorité des cas
Réduisez les vidéos en taille (hauteur et largeur), le plus possible
Utilisez la technique du lazy loading qui consiste à précharger une image rapidement au lieu de la vidéo et de charger la vidéo en arrière plan
Evitez les vidéos de fond d’écran : c’est très joli, mais très gourmand en bande passante
Alors oui, depuis que Google a créé les Google Fonts, il est enfin possible de se passer de la Verdana, de l’Arial et de la Times New Roman, mais cela a un prix : en permettant d’utiliser des polices plus créatives, plus jolies, moins monotones, la consommation de bande passante des sites n’a fait qu’encore augmenter. Il faut donc vraiment réfléchir dès la conception (et ça, c’est votre rôle, en tant que designer) à quelle genre de police de caractère vous allez faire appel pour designer vos pages et quel impact cela aura sur la performance.
Pour cela, nous avons aussi quelques recommandations :
N’utilisez des Google Fonts que si cela se justifie vraiment du point de vue utilisateur. Pour un site administratif, il n’est pas forcément nécessaire d’avoir une police originale, et il peut être tout à fait possible de s’en tenir aux grandes polices classiques. En revanche, si vous êtes une agence web et que vous tenez à montrer votre créativité, mieux ne vaut pas vous restreindre à ce niveau là
Une recommandation qui semble anodine, mais peut avoir son importance sur les sites à fort trafic, pensez à élaguer les fichiers de police de tous les caractères inutiles. Souvent, ces fichiers contiennent de nombreux caractères en langues étrangères qui n’ont aucun intérêt pour les utilisateurs occidentaux d’un site
Comme on le voit, dans cette logique, tous les médias peuvent et doivent être optimisés évidemment dans des proportions acceptables et en accord avec les objectifs de l’entreprise commanditaire. Un site dont l’offre de service est de permettre de visionner des vidéos doit trouver le juste équilibre entre qualité de visionnage et compression. En revanche, un site dont les vidéos n’ont été incluses qu’à titre décoratif peut largement faire un travail d’optimisation qui sera apprécié des utilisateurs.
L’optimisation du code
Ne sautez pas au plafond ou ne vous enfuyez pas ! Nous n’allons pas entrer en détail ici dans l’optimisation du code, qui est un job dédié aux développeurs. En revanche, il nous semble primordial de vous faire prendre conscience de l’importance de cette démarche qui permet de gagner encore des point sur la réactivité de l’interface.
En quoi consiste l’optimisation du code ?
Là encore, l’idée est de se débarrasser de toute la mauvaise graisse. Et la mauvaise graisse, croyez-nous, il y en a. Un exemple pour que vous compreniez bien.
Le code TML/CSS/javascript est écrit par un être humain qui a besoin de pouvoir le lire, le relire et le corriger… mais ce code contient beaucoup de caractères inutiles… des espaces, des tabulations, des saut de ligne, des commentaires…
Une des tâches de l’optimisation est justement de se débarrasser des ces « mauvais » caractères, tout simplement en compressant le code… Tout simplement, c’est à dire en utilisant un outil qui permette de dégraisser ce code une fois qu’il est en ligne. Cela permet de gagner parfois jusqu’à 30% du poids d’une page… Autant pour améliorer la performance de la page.
Mais ceci est une technique basique… ancestrale, presque… utilisée depuis longtemps.
D’autres techniques permettent de faire des gains non négligeables :
Compresser les feuilles de style
Ne télécharger que les feuilles de style nécessaires
Compresser et ne télécharger que les scripts javascript nécessaires et pas des librairies entières utilisées seulement à 5% ou parfois moins
Un bon développeur, en principe, par défaut, fera ce travail. A vous de vous en assurer… ou du moins, à vous de savoir que vous pouvez le faire si ça n’a pas été fait.
L’optimisation de l’infrastructure technique
Nous rentrons là dans un domaine encore plus éloigné que le précédent des préoccupations des designers.
Jusqu’à maintentant, toutes les optimisations dont nous avons parlé permettait de chasser les vilaines graisses côté client, c’est à dire sur le navigateur de l’utilisateur. Bien. Mais saviez-vous qu’il était aussi possible d’effectuer des actions côté serveur, c’est à dire sur ce qui ne se voit pas et se déroule loin, parfois très loin de chez l’utilisateur ?
Parmi ces techniques, une des plus connues consiste à stocker « en cache » des images sur des serveurs proches des utilisateurs finaux. Une fois appelées les pages web qui contiennent ces images, ces dernières feront un chemin beaucoup moins long et beaucoup plus courts pour parvenir à l’utilisateur.
Nous ne rentrons pas dans le détail, mais vous voyez l’idée.
Repenser la façon de concevoir un site
Comme nous venons de le voir très rapidement, l’optimisation de pages webs passent par de nombreuses techniques d’optimisation qui sont toutes, pour la plupart, entre les mains des équipes de développeurs (ou de votre développeur, mais j’aime bien dire « les équipes », ça fait plus… plus… euh ben plus grosse entreprise, quoi !).
Pour aller plus loin, il est cependant utile de revenir aux fondamentaux du design d’applications – et ça, c’est entre les mains des designers – et qui consiste à se poser la question de l’utilité. Critère fondamental en UX.
Grossièrement, la question qu’il faut toujours avoir à se poser sur une fonctionnalité ou un contenu est : à quoi cela va-t-il servir et à qui cela va-t-il servir ?
Ce sont des questions auxquelles il est difficile de répondre, car il est souvent impossible de dire comment vos utilisateurs vont se servir de votre site ou de votre application. Et une fonctionnalité qui peut paraître anodine peut très bien avoir un grand succès et vous surprendre en devenant la fonctionnalité principale de votre site.
Mais nous pensons qu’il reste et qu’il demeure une bonne attitude de toujours se poser la question de l’utilité. D’une manière, il s’agit des prémisses de l’optimisation. Ne pas créer quelque chose, c’est ne pas le télécharger et ne pas ralentir l’expérience utilisateur… de toute évidence.
Nous savons toujours à quel point il est difficile de faire des choix. Notre recommandation cependant est ancré dans le classicisme du design thinking et des méthodes agiles. Pour être performant, ne développez et ne créez toujours que le strict nécessaire. Enrichissez ensuite !
Nous avons de plus en plus la conviction chez Wexperience que c’est là le secret d’un bon design et d’une bonne UX.
L’optimisation de la performance à l’encontre de l’émotion et de l’efficacité commerciale ?
Pour terminer cet article, abordons une question que vous avez déjà dû vous poser. L’optimisation de la performance ne nous ferait-elle pas faire des site tristes, ennuyeux, sobres dont l’émotion serait absente et la capacité à « engager » serait faible ?
Vous avez tout à fait raison de vous poser cette question et elle est d’importance.
Pour vous répondre, nous avons deux exemples de site réalisés par Wexperience qui montrent que l’on peut faire séduisant et performant à la fois, celui de l’agence WAM, agence de SEO à Lyon, et celui de l’assurance April Moto.
Le cas WAM
En 2021, l’agence WAM nous a contacté pour une refonte complète de son site. Cette refonte a consisté à revoir l’ensemble du design et des contenus du site, de manière à fournir une expérience client optimum.
Pour cela, des tests utilisateurs ont été conduits pour connaître parfaitement les besoins des prospects et des clients de WAM, mais aussi pour valider le design produit par notre équipe.
Lors de la production du site, l’équipe IT de Wexperience s’est particulièrement penchée sur les temps d’affichage en mettant en œuvre toutes les recommandations de l’optimisation de la performance, résultant en un site particulièrement sobre et rapide.
Web Core Vitals pour le site de l’agence WAM, agence leader en SEO en France
Le cas April Moto
April Moto, l’assureur des motards, nous a demandé non seulement de revoir et d’améliorer l’organisation de la page d’accueil de son site, mais également de soigner sa performance, notamment en employant les meilleures techniques possibles pour intégrer une vidéo en fond d’écran (ce qui n’est pas dans nos recommandations, mais comme je le disais entre UX et ebusiness, il y a toujours des compromis à faire).
Dans un cas comme celui là, le challenge a été de diminuer le temps d’affichage de la première image de la vidéo au chargement de la page. Ici, c’est la technique du lazy loading qui a été employé. Technique qui consiste à précharger une image de la vidéo avant de continuer à charger tout le reste de la vidéo.
En plus de cela, le choix a été fait de ne pas héberger la vidéo sur Youtube, ce qui impliquait trop de temps de latence, mais de l’héberger directement chez April Moto.
Les Web Core Vitals de April-moto.fr mesurés sur la page desktop. Malgré la vidéo, tous les indicateurs sont au vert. N’oubliez pas de regarder notre webinar sur les CWV pour connaître la signification de chaque critère.
Ces deux cas nous montre que l’important est de rentrer dans les clous des Core Web Vitals. Je vous dirais que l’optimisation de la performance est comme un bon régime alimentaire.
On peut perdre du poids en se faisant plaisir et en mangeant des bonnes choses.
Mais on peut aussi perdre du poids de manière stricte et austère.
Les deux permettent d’aboutir à un résultat, mais devinez quel genre de régime nous préférons ?
Celui où il nous est permis de nous amuser encore, de mettre en ligne de belles vidéos ou d’utilser de belles polices de caractère, tant que nous restons dans les clous Core Web Vitals.
Et la bonne nouvelle est que c’est possible ! Alors, réjouissons-nous et optimisons nos sites !
Notre méthode pour optimiser
Vous l’avez deviné en filigrane en lisant cet article : l’optimisation de la performance passe par un raisonnement global, une approche holistique de l’UX. Du design au code, l’optimisation de la performance passe par une méthode qui prend en compte tous les critères : de l’utilité d’un site ou d’une application, de ses contenus et fonctionnalités, à son design graphique jusqu’à son codage.
Mais bien sûr, ceci n’est possible qu’à partir d’une application non existante et il est bien plus compliqué de la mettre en pratique sur un site web existant avec une lourde technique et un passif graphique issu d’un autre temps.
Cependant, nous vous rassurons, il demeure toujours possible d’améliorer la performance et l’UX d’un site en appliquant une démarche d’optimisation que nous nous ferons un plaisir de vous expliquer. Contactez-nous et nous vous en dirons plus.
Comment bien recruter des personnes pour faire un test utilisateur
Différents tests utilisateurs sur mobile dans le studio de Wex
Vous le savez, chez WEX, on adore faire des audits UX. Et depuis qu’on a commencé en 2010, nous en avons réalisé plusieurs centaines pour nos clients.
Ces audits sont des entretiens avec de vrais utilisateurs, de vraies personnes humaines, vivantes, qui nous permettent de déterminer tous les points positifs et négatifs de l’interface d’une appli mobile ou d’un site web. Grâce à cela, nous pouvons en améliorer conséquemment l’UX et la performance.
Alors, faire des audit avec des utilisateurs, oui, mais pas n’importe comment, et c’est de cela dont nous voulions vous parler aujourd’hui. Car réaliser un audit ne se fait pas à n’importe quel prix et nécessite un niveau de qualité exigeant pour avoir les meilleurs résultats.
Secret n°1 : ne testez pas une interface avec votre voisin de bureau
Ni avec votre cousin, votre petit sœur, votre maman ou votre boss.
Tester une interface requiert d’avoir des gens qui n’ont pas de lien avec le projet de quelque manière que ce soit : collègue, famille, amis. Si, par facilité, vous pensez qu’il n’est pas « grave » de demander à des personnes que vous connaissez de vous aider à analyser une interface, vous vous trompez. Car, à partir du moment où ces personnes ont un lien avec vous, leur comportement sera biaisé et induira pour vous des erreurs d’appréciation.
Les gens de votre famille ou vos amis auront tendance à vouloir vous faire plaisir et se comporteront en « ami » de votre interface, en minimisant ce qui ne va pas et en exagérant ce qui va.
Vos collègues, soit parce qu’ils chercheront à ne pas vous nuire, soit parce, qu’au contraire, ils seront particulièrement sévères avec vous. Pire encore, certains auront tendance à se considérer comme des experts et agiront comme tel, ce qui, évidemment n’est absolument pas le but recherché. Si vous avez besoin de testeurs, c’est justement parce que vous ne recherchez pas l’avis de l’expert que vous êtes.
Secret n°2 : cherchez des gens impliqués
Il est indispensable lorsque l’on teste interface de travailler avec des gens qui se sentent concernés par ce que vous allez leur demander de tester.
Rien de pire que des testeurs qui viennent là par hasard (ou presque), juste pour toucher leur dédommagement, et qui font les choses sans aucune conviction.
Auditez avec des gens impliqués !
Pour cela, lors de la phase de recrutement, vous devez arriver à trouver des personnes qui pourraient avoir un intérêt à utiliser votre interface. Par exemple, si vous devez auditer un tunnel de souscription de demande de devis pour une mutuelle, cherchez des gens qui sont actuellement dans une phase active de recherche de mutuelle.
Le fait qu’il puisse se projeter mieux dans l’action permet notablement d’augmenter le nombre d’enseignements que l’on peut retirer d’un audit.
Nous l’avons expérimenté dans tous nos audits, et si cela ne change pas grand chose à l’analyse purement ergonomique, pour ce qui concerne la compréhension du produit, les informations affichées, les questions de confiance et de rassurance, cela change tout.
(La suite après ce court message publicitaire)
Hey ! Vous recherchez une salle pour vos tests ? On a ce qu’il vous faut.
Il est bien tentant de ne pas dépenser un kopeck pour auditer une interface. Ce sont des économies de faites, mais, nous pouvons le dire, de bien mauvaises économies.
Rémunérer vos testeurs a plusieurs avantages que vous ne devriez pas oublier :
Il est juste de dédommager une personne pour le temps qu’elle prend à vous consacrer. Dans certains cas, pensez au temps qu’elles vous accordent (parfois plus de 2 heures, déplacements compris quand il s’agit de tests en présentiel)
Le dédommagement permet de faciliter le recrutement. Soyons honnête, peu de gens se déplaceraient gratuitement pour vous aider. Et ne pas dédommager peut significativement entraver votre projet en allongeant indéfiniment les temps de recrutement. Par ailleurs, dans certains cas, où il est difficile de recruter (des professionnels), il ne faut pas hésiter à augmenter le dédommagement. Il nous est arrivé de dédommager de plus de 200€ certaines personnes à distance. C’était la condition sine qua none pour arriver à les décider à venir.
Même si le dédommagement ne doit pas être la motivation principale, il reste tout de même une motivation qu’il ne faut ni mépriser ni négliger
Secret n°4 : bannissez les testeurs professionnels de vos audits
Si vous recourez à un prestataire externe pour le recrutement de vos testeurs, il se peut que vous voyez souvent réapparaître les mêmes têtes. Effectivement, certaines personnes se sont faites un métier de répondre et de participer à des études. Elles sont inscrites sur tous les fichiers et sont toujours volontaires. Ne prenez pas de telles personnes.
De plus :
Évitez de prendre deux fois les mêmes personnes pour deux études différentes sur le même projet
Évitez de prendre la même personne sur deux projets différents, même si son profil correspond à vos critères
Ne recontactez une personne qu’au bout d’un délai d’un an si vous avez absolument besoin de la recruter
Secret n°5 : n’essayez pas de recruter par vos propres moyens
A moins d’être vraiment une très grosse société avec beaucoup de clients captifs (comme SNCF Connect, par exemple), ne perdez pas votre temps à créer votre propre base de recrutement.
Vous pouvez toujours le faire, bien sûr, mais cela vous demandera beaucoup de temps, non seulement pour créer la base, mais aussi pour la maintenir.
Tout ce que vous pensez économiser en frais de recrutement sera perdu en temps passé à recruter.
Le recrutement est un métier qu’il vaut mieux laisser à une agence spécialisée qui vous évitera (en principe) tous les pièges du recrutement.
Conclusion
Comme nous l’avons déjà souvent expliqué, le recrutement est une phase primordiale d’un bon audit UX. Considérer qu’il suffit de prendre des voisins, des passants, bref des gens sans implication ne correspondant pas au profil, et sans rien connaître de leur background technologique, c’est simplement s’exposer à passer à côté de nombreux enseignements, même pour le moindre petit test.
Il est toujours tentant d’aller vite (surtout quand le commanditaire vous met la pression), mais c’est toujours au détriment de la qualité des enseignements recueillis. Et c’est même au risque de détecter de faux enseignements et de vous faire faire fausse route dans le développement de vos interfaces.
Alors, nous vous recommandons de garder en tête tous nos conseils. Et, si vous pensez que vous ne pouvez pas les suivre, faites appel à nous pour conduire vos audits UX (qu’on appelle tests utilisateurs dans notre jargon).