Agence WEX

Auteur/autrice : olivier

  • Stratégies de recherche des internautes sur un site de ecommerce

    Les stratégies de recherche dépendent de nombreux facteurs qu’il faut savoir prendre en compte

    Pour faire suite à notre article sur les moteurs de recherche, nous avons téléchargé Ecommerce User Experience Series – Search, étude très complète de Norman Nielsen Group (NNG) sur le même sujet. Un travail très bien fait qui répète sans doute quelques évidences, mais rentre dans le détail de nombreux sites pour bien comprendre comment optimiser l’ergonomie d’un moteur de recherche sur les sites de ecommerce. Point notamment, passionnant,  la manière dont les internautes utilisent un moteur de recherche. Il s’avère que les stratégies de recherche sont très variables et les usages très différents, selon l’historique du parcours client, la profondeur de gamme, la largeur de l’offre, mais aussi de la qualité du référentiel produit. Pour y voir plus clair, voici les principales stratégies recensés par NNG.

    Principales stratégies de recherche

    Un des premiers comportements est le besoin de l’utilisateur de se rendre compte rapidement de ce qu’il va pouvoir trouver sur le site. Ce comportement à mettre en parallèle avec les utilisateurs qui regardent le menu de navigation pour déterminer le contenu global du site. Ce comportement est plutôt fréquent lorsque les utilisateurs arrivent pour la première fois sur un site.

    De toute évidence, un des comportement les plus courants est la recherche rapide d’un produit. Chercher un produit par mot clé quand l’arborescence produit est beaucoup trop grande (sur un site comme Cdiscount, par exemple) entraîne forcément un sentiment d’impuissance qui amène l’utilisateur à essayer d’aller plus vite au but en utilisant la puissance du moteur de recherche.

    Ce comportement s’effectue aussi pour les gens cherchant des produits qui pourraient ne pas apparaître immédiatement en haut des résultats de recherche. C’est à l’heure actuelle, la raison d’être principale du moteur de recherche, selon moi.

    Autre motif d’utilisation du moteur de recherche, la frustration de ne pas avoir trouvé ce que l’on cherchait en utilisant l’arborescence. Ce comportement est typique et permet de « sauver la mise » au site si le rangement de son offre est mauvais.

    Mais le moteur de recherche est aussi utilisé lorsque l’utilisateur sait exactement ce qu’il veut. Plutôt que de passer par l’arborescence, alors celui-ci tapera le nom spécifique du produit pour le retrouver. On devine que ce comportement se déroule plutôt en fin de processus d’achat dans un parcours d’achat typique.

    Beaucoup d’utilisateurs utilisent le moteur de recherche pour parer à la complexité des arborescences présentes sur les gros sites de ecommerce

    Autre stratégies :

    Recherche par critère. Parfois l’utilisateur ne sait pas exactement quel produit, il veut, mais il sait quel caractéristique ce produit doit avoir. Par exemple, pour un disque dur, il tapera sa capacité plutôt que son intitulé. C’est évidemment une façon de chercher à laquelle un bon moteur de recherche devra savoir répondre.

    Recherche par manque : si un utilisateur ne trouve pas dans la description d’un produit une information particulière, alors il ira faire une recherche sur le point manquant. C’est ce que j’appelle une recherche par manque.

    Recherche par défaut : dans le cas d’une recherche par filtres, il est possible que l’utilisateur soit déçu par les résultats et ait l’impression que le site ne lui ait pas renvoyé tous les résultat. Dans ce cas aussi, il tapera les critères du filtre pour être certain qu’aucune information ne lui a été « dissimulée ».

    Recherche par rétrécissement. Ce genre de recherche n’est possible que dans certains sites où il est possible d’affiner l’affichage d’une catégorie en faisant une recherche spécifique à l’intérieur. Ce type de recherche apparait comme une sorte de réponse à une déception dans la navigation par catégorie.

    Recherche rapide. Dernier cas concernant les produits, cette recherche consiste simplement à taper le nom d’un produit qu’on a déjà vu au cours d’une visite précédente.

    Enfin, il existe une autre raison pour utiliser le moteur de recherche d’un site. Il s’agit de la recherche d’information autre qu’un produit.

    Comprendre les différents comportements de recherche devrait permettre d’offrir des réponses plus adaptées et bonifiantes pour le taux de transformation

    Outre ces manières de rechercher, l’étude de NNG nous apprend quels sont les termes essentiellement utilisés pour faire une recherche, ainsi, en plus de cela le nombre de caractères et le nombre de mots des requêtes. On ne sera pas étonné que ce nombre ne dépasse pas 2,5 mots en moyenne. Curieusement, l’étude ne dit pas si il y a une différence entre recherche sur smartphone et écran d’ordinateur, ce qui devrait nécessairement avoir une conséquence sur cette donnée.

    L’important, dans cette information, est de retenir que le moteur répond à de nombreux besoins qui ne sont souvent pas pris en compte dans l’ergonomie  ou les contenus des pages de résultat. En effet, il serait tout à fait possible en analysant ces différents comportements de pouvoir modifier l’apparence des contenus, leur ordre d’affichage ou même d’autres choses comme le prix ou le type d’information à mettre en avant. Ce sont de véritables opportunités à saisir pour bonifier son taux de transformation.

    Photo de l’article par Marten Newhall sur Unsplash

    Photo de l’illustation par Taras Shypka sur Unsplash

  • Non, l’ UX, ce n’est pas à remettre à plus tard !

    L’UX est une notion très mal comprise, voire pas du tout comprise, des chefs d’entreprise

    J’entendais encore hier un marchand me dire que l’UX, ça ne l’intéressait pas, parce que pour l’instant, il allait devoir faire une refonte de son socle technique (et, en conséquence, refaire l’interface de son site).

    Il est étonnant de voir comme la perception de l’UX est encore déplacée par rapport à la réalité.

    Ne pas faire d’UX revient au même que de ne pas faire de design graphique. Or, on voit mal un site sortir sans design graphique.

    Mais cet à priori est due en grande partie, je pense, à la méconnaissance de ce qu’est l’UX et des multiples réalités qu’il recouvre.

    Connaître le processus de refonte d’un site

    Une agence qui ne proposerait pas aujourd’hui une démarche teintée d’UX dans la conception d’un site ecommerce, pour moi, ne ferait tout simplement pas correctement son métier.

    Même si la physionomie des sites ecommerce en général est assez standard, il n’empêche que chaque site présente des spécificités, des besoins utilisateurs particuliers, et qu’il est important de les connaître. Et quoi qu’il en soit, intégrer une démarche UX à un projet de site, c’est aussi réduire ses coûts de production.

    Le test utilisateur, la méthode indispensable pour évaluer un site existant

    Le test utilisateur est indispensable à tout projet qui veut connaître et mesurer l’expérience utilisateur (UX, pour User Experience) d’un existant. Cette approche qui permet d’être au contact directement avec ses clients finaux est riche d’enseignements et permet d’avoir une évaluation parfaite des points forts et points faibles d’un site, tant en terme d’ergonomie qu’en termes de réassurance, de design et d’émotion. Il redonne, et c’est important, une vision objective de ce qu’il s’y passe. Beaucoup de nos clients pensent souvent de prime abord que leur site est très mauvais « ergonomiquement », ou trop vieux, ou laid. Laissez-moi vous dire que leur jugement est 100% du temps biaisé. Le test utilisateur permet donc de remettre d’équerre la vision de l’existant. Et, je précise, cette vision est plus qu’un complément des web analytics. Elle est indispensable, car elle apporte de l’information au niveau de la psychologie des utilisateurs, là où les données sont incapables de produire quoique ce soit.

    tests-utilisateurs-wexperience
    Photo prise lors d’un test utilisateur mobile chez Wexperience

    UX Designer et UI designer, les deux nouveaux spécialistes de la conception de pages webs

    La conception du site confié à des spécialistes de l’UX permet de gagner énormément de temps en production. En effet, le site est d’abord conçu en maquettes fil de fer (« wireframes ») et ces maquettes permettent de mieux se concentrer sur l’architecture d’information. Surtout, étant en réalité des plans de page, elles peuvent être modifiées beaucoup plus rapidement que des maquettes graphiques qui traditionnellement, servent à la conception. Chez Wexperience, nous utilisons des outils comme Sketch ou Invision, conçus spécifiquement pour la phase de conception. Ces outils offrent une productivité et une souplesse qui ne cessent de s’améliorer et font gagner 30 à 40% de temps en conception.

    wireframe-gsmc
    Exemple de Wireframe réalisé lors du projet de refonte pour la mutuelle GSMC

    A ce stade, travailler avec des designers d’interface (UX et UI Designers) apporte beaucoup plus que de travailler avec de simples graphistes ou directeurs artistiques. Leur connaissance des règles de l’ergonomie, des habitudes utilisateurs, et aussi, chez Wexperience, leur spécialisation dans le ecommerce, garantissent la création de pages en parfaite adéquation avec votre cible utilisateur finale.

    Le design graphique, du beau, oui, mais aussi du pratique

    La partie graphique inclue également de l’UX. Après avoir conçu les maquettes de page, un travail d’habillage graphique est également réalisé. Il est accompli par des designers d’interfaces (UI designers) qui sont capables de mêler aux aspects, branding et marketing du design, les aspects ergonomiques (choix des couleurs des boutons, taille des polices de caractères, contrastes). Encore une fois, seules des personnes ayant cette connaissance de l’ergonomie sont capables de créer un design à la fois attractif et pratique. Etant donné la pénurie en France de profils UX, seules quelques agences sont capable d’apporter ce savoir-faire indispensable pour créer des expériences en réelles adéquations avec les habitudes de surf sur ordinateur ou mobile.

    Le codage HTML, de l’UX design ?

    Même l’intégration HTML/CSS, qui est la phase de codage des pages, doit intégrer de l’UX.

    • Avoir un intégrateur HTML/CSS intégré à l’équipe de conception UX permet d’éviter les écarts de conception entre les maquettes de page et les pages effectivement codées en HTML (phénomène très récurrent dans notre profession)
    • Un intégrateur conscient des problématiques d’ergonomie apportera un surcroît d’utilisabilité (capacité d’être utilisée d’une interface vis à vis de sa cible utilisateur).

    L’UX n’est pas une prestation en plus, elle fait partie de la prestation de conception d’un site

    A tous les stades de production d’un site, on le voit, l’ergonomie ou l’UX sont des composantes intrinsèques des compétences métiers du design graphique au codage. Dès lors, dire qu’on ne veut pas faire d’UX lors d’une refonte de site, c’est se garantir la production d’un site empreints d’erreurs de conception, probablement bugué d’un point de vue de l’utilisabilité, mais surtout en retard par rapport aux usages du marché. Ne pas faire d’UX revient à concevoir une voiture sans en faire les plans, sans l’essayer avant de la mettre sur la route, en se fiant seulement à son instinct.

    Un projet de refonte doit nécessairement intégrer cette dimension métier et il ne suffit par de voir le mot UX sur le CV des intervenants pour que les méthodologies et la connaissance de l’ergonomie soient garanties chez votre prestataire. Il faut aller plus loin et vérifier si la méthode de conception que nous prônons ici est bien adoptée et si elle est effectivement pratiquée.

    Bon courage dans votre projet !

  • Best-practices pour les moteurs de recherche sur les sites de ecommerce

    En 17 ans, les moteurs de recherche sur les sites de ecommerce se sont considérablement améliorés

    Le Nielsen Norman Group (NNG° vient de sortir un nouvel opus à sa collection des Ecommerce User Experience Series, alors profitons-en ! Cette fois ci, il s’agit de l’optimisation des moteurs de recherche sur les sites de ecommerce et le constat fait par NNG est qu’en quelques années, cette fonctionnalité indispensable s’est beaucoup améliorée chez les marchands. Mais quelles sont les bonnes pratiques pour aider les internautes à trouver le bon produit rapidement ? Revue de détail !

    Quelques best-practices

    Champ de recherche, soyez conventionnel

    Un bon exemple de champ de recherche sur le site FNAC.COM version desktop. D’une couleur plus sombre que le reste de la page, positionné en haut, il est facilement trouvable par les internautes.

    D’une manière générale, désormais, le champ de recherche (sur les écrans dits « desktop », pour ordinateur de bureau) doit être placé en haut de l’écran, près de la navigation. Pour permettre de l’identifier, un libellé explicite n’est plus nécessaire (bien que ça ne soit pas un mal non plus), sa position dans la page l’aidant le plus souvent à l’identifier. Avec le temps, les internautes cherchant le champ de recherche ont simplement besoin de trouver un long champ texte pouvant contenir plusieurs mots clés accompagné d’un bouton avec une icône loupe. Sur les sites mobiles, parfois, on ne trouve que le bouton « loupe » et cela suffit également amplement pour identifier le champ de recherche.

    N’utilisez plus de recherche avancée

    Cette fonctionnalité, à l’exception de sites spécialisés (recherche de vol ou réservation d’hotel) tend à disparaître et est remplacée par l’apparition de filtres et de tris (navigation à facettes). La recherche avancée avait tendance à produire trop de résultats insatisfaisants et les utilisateurs se sont mis à l’éviter. En revanche, ne pas proposer la navigation à facette constitue une erreur et est devenue une vraie convention d’utilisation pour tous les internautes.

    Les filtres à facettes doivent être adaptés au produit recherché et pas simplement afficher des critères généralistes.

    Autosuggestions

    Tout comme la navigation à facette est devenu un standard, la suggestion de termes de recherche sous le champ de recherche est devenue une exigence incontournable pour tous les internautes. Bien réalisée, elle les aide à gagner beaucoup de temps pour parvenir à leur objectif. Mais NNG nous signale que sur beaucoup de sites, cette fonctionnalité ne remplit pas toujours son office (dans seulement 23% des cas). En effet, même si des termes sont suggérés pendant la frappe, les internautes ont tendance à ne pas sélectionner ces suggestions et continue à taper entièrement leur terme de recherche. Toutefois, il semblerait que le moteur d’autosuggestion les aide à découvrir ce qui est présent dans l’offre du site. Elle joue donc bien un double rôle : facilitation et découverte.

    Outre les mots clés, certains moteurs de recherche suggèrent également des produits ou des catégories de produits. NNG signale que ce qui a été une mode pendant un certain temps, puis avait eu tendance à disparaître, revient tout de même en force à l’heure actuelle (sur mobile ou desktop) et sous forme de ce que l’on appelle des mégamenus, c’est à dire de larges panneaux déployés sur toute la largeur de la page (sur desktop).

    Un bon exemple de moteur de suggestion de termes de recherche. Les fautes d’orthographe sont prises en compte et ne constituent pas un obstacle à la recherche.

    Ce qu’il reste encore à améliorer

    Si l’étude de NNG montre que l’offre moyenne de sites en matière de moteurs de recherche s’est beaucoup améliorée au cours des 17 dernières années, elle entraîne une nécessité pour les marchands d’être encore plus pertinents et efficaces. Il ne suffit plus d’offrir l’autosuggestion ou la navigation à facettes, et plusieurs erreurs communes entâchent encore l’expérience utilisateur telle que NNG l’a noté :

    • Des champs de recherche pas encore assez visible, parfois représentés par l’icone loupe sur les sites desktop ou bien à l’intérieur du menu de navigation sur les sites mobiles
    • Pas assez d’assistance ou d’aide à la correction pour tout ce qui concerne les erreurs de frappe, les fautes d’orthographe ou les synonymes
    • Des présentations non standardisées des pages de résultat
    • Des filtres présentant des résultats inadéquats

    Nous espérons que ce premier résumé sur les moteurs de recherche vous aura intéressé et pour en savoir plus, rendez-vous sur la page de NNG pour acheter leur étude complète.

     

    Pour notre part, vous pourrez retrouver plus de best-practices en téléchargeant nos présentations sur les sites webs mobiles dans notre page Ressources.

     

    Via The State of Ecommerce Search sur nngroup.com
    Photo by Chase Clark on Unsplash

     

  • Pourquoi le marketing de conversion a de beaux jours devant lui

    L’art de la conversion prend ses racines dans les techniques de testing, mais tend désormais vers la personnalisation

    Petit récap sur la notion de conversion

    Pour les marchands en ligne, la conversion est un terme familier. Transformer le plus de visiteurs possibles en client. Retransformer les clients en clients plus fidèles.

    Mais dans le web, cet art demeure pire que difficile. En moyenne, les sites ecommerce français transforment 5% de leurs visites (et ce taux tombe même en dessous de 3% pour les sites webs mobiles). Pour une raison simple, rien ne pousse votre visiteur lorsqu’il est seul face à son téléphone ou son ordinateur à passer à la caisse. Pour ce faire, il doit avoir un besoin impérieux.

    L’art de la conversion repose donc sur la capacité à tenter plus le visiteur, à l’inciter à franchir le seuil fatidique du paiement, à le persuader.

    Dans les grandes sociétés, des hordes de personnes s’y attellent ! Web marketeur, emerchandizer, UX designer, UI designer, intégrateur CSS/HTML, front-end developer, Web analyste, Data scientist et j’en oublie sûrement d’autres.

    Le jeu consiste à analyser le comportement du client et à le pousser peu à peu vers le panier, puis le paiement. Un jeu qui consiste à « pousser » les bonnes offres au bon moment (merchandising et personnalisation), à afficher des messages incitatifs (une grande spécialité d’un site comme booking.com), à rendre fluide la navigation (le rôle des UX, anciennement les ergonomes). C’est un savant mélange qui consiste à exciter visuellement le visiteur et simultanément le concentrer sur son activité, mais aussi rendre « sans efforts » sa navigation (en réduisant, par exemple, tout le parcours de paiement à un seul bouton comme c’est le cas sur Amazon).

    Fondamentalement, cet exercice implique une excellente connaissance client fournie à la fois par l’analyse en temps réel de données glanées au cours de sa navigation, mais aussi par la conduite régulière d’entretiens avec les utilisateurs finaux sous la forme de tests utilisateurs. Posséder cette capacité à mélanger la vision quantitative et la qualitative permet de s’approcher au plus près de la psychologie des utilisateurs et à être capable de lui afficher tous les mécanismes dont nous avons parlé plus haut.

    A l’invitation d’AB Tasty, le leader des solutions d’optimisation Web en France, lors du Conversion Summit, il m’a été donné de faire un peu le point sur un métier arrivé à maturité.

    Constats sur la conversion

    Premier constat : trop peu de sociétés investissent dans la conversion

    Tout le monde ne fait pas de la conversion. Soit les sites ne génèrent pas assez de trafic pour mettre en place des tests de comparaison A/B. Soit les équipes en charge des sites webs ne sont pas assez staffées et préfèrent prioriser sur l’acquisition de trafic. Soit l’organisation de l’entreprise interdit de conduire une stratégie d’apprentissage continu (Test & Learn). Ces points sont récurrents, mais c’est surtout le dernier qui est le plus bloquant. Optimiser requiert une coordination précise entre l’équipe marketing en charge d’un site et l’équipe informatique. Or, souvent les priorités de ces équipes ne sont pas les mêmes. L’informatique prenant assez souvent le pas sur le marketing et l’empêchant de mener librement des tests (malgré les belles promesses des prestataires, il reste parfois nécessaire de recourir à l’informatique pour intégrer un test).

    Deuxième constat : le conseil n’est pas à la hauteur

    Les annonceurs sont très exigeants en terme de conseil et semblent ne pas être toujours entendus à la hauteur de leurs attentes. Opérer un outil de tests A/B est une chose, établir une feuille de route d’optimisation cohérente en accord avec la stratégie d’entreprise, une autre. En interne, cette tâche détourne souvent d’autres tâches plus prioritaires. En externe, le manque de connaissance métier, le coût en jour homme (TJM) peuvent parfois être dissuasifs, encore une fois par rapport à d’autres priorités (dont, encore et toujours, le trafic).

    Troisième constat : le ROI de la conversion n’est pas (toujours) assez rapide

    Le retour sur investissement des tests A/B n’a pas la même attractivité que l’achat de mots clés sur Google. Un test A/B n’aura jamais le même effet de levier que l’injection de budget sur le référencement payant (SEA) dont l’effet est immédiat. Hormis les cas de sites très fortement défectueux, parce que trop anciens ou mal conçus, les effets de l’optimisation ne se font jamais clairement sentir. D’où une certaine méfiance des directions marketing.

    Pour autant, faut-il ne pas optimiser ?

    Je ne le crois pas. La culture du test est inhérente à la culture du marketing directe et elle s’applique très bien à celle du commerce en ligne.

    Toutefois, il ne faut pas en espérer des miracles et il faut sans doute l’adjoindre à des outils de personnalisation pour en tirer sa pleine puissance.

    En route vers la personnalisation

    C’est la route que se sont fixés toutes les sociétés d’AB testing, dont AB Tasty, et qui consiste à transformer en segments de personnalisation des variations de tests. L’avenir est sans doute là. Personnaliser veut dire être à la fois pertinent sur des offres, mais également pertinent sur l’expérience utilisateur, comme l’a si bien démontré l’équipe de Netflix dans un article de blog récent.

    La personnalisation est réellement une attente des consommateurs (71% des français sont prêts à sacrifier une partie de leur vie privée pour avoir des offres pertinentes et donc, personnalisées).

    Le besoin est donc réel et la personnalisation sera le graal de la conversion dans les années à venir.

    Deux impératifs pour cela, comme cela a été souligné par Olivier Guilhot, Directeur Marketing Digital de Sodexo, présent au Conversion Summit : les données seront au centre de tout. Et plus que les données : des données purifiées, de bonne qualité. A l’aune de ce que je peux constater chez nos clients, les marges de progressions sont très grandes pour arriver à cette qualité.

    Deuxième impératif : la véritable connaissance client devra être accrue, avec une capacité à le segmenter de nouvelles manières en sortant des schémas traditionnels du marketing, mais aussi en s’intéressant au plus près à sa psychologie par des entretiens utilisateurs qualitatifs poussés, mais aussi par une mesure du ressenti, comme l’a revendiqué Pascal Lanoo, Directeur de l’Expérience Client de Oui.SNCF.

    Conclusion

    Le Conversion Summit aura dont été pour moi l’occasion de faire le point sur les techniques de conversion à travers un cycle de conférences, mais aussi de beaucoup d’échanges avec des connaissances, expertes dans le domaine. Y être m’a permis aussi de me faire une idée du panorama des prestataires présents sur le domaine qui montre que la conversion reste un petit monde par rapport à celui de l’acquisition de trafic. Et pourtant, il y a encore beaucoup à faire dans ce domaine !

  • Quand la technologie oublie l’humain, elle se plante !

    Demain, tous les services seront connectés

    En 2020, il y aura 80 milliards d’objets connectés dans le monde ! Mais la plupart d’entre eux partirons bien vite à la poubelle. Pour quelle raison ? Parce la croyance est trop grande, chez leurs concepteurs, que la seule technologie imposera le succès et l’usage. Or, rien n’est plus faux !

    Preuve encore avec les échecs récurrents des scanneurs de produit. La même semaine, Walmart, le géant américain de la grande distribution, et Chronodrive, l’inventeur du drive, jetaient aux orties 2 systèmes qui, pensaient-ils, allaient faciliter l’expérience client.

    Comme nous l’apprend Mobile Marketer, il a fallu moins de 4 mois au premier pour arrêter une expérience apparemment lamentable. de scanneur de produits en magasin via un smartphone. La raison principale de cet abandon ? Le rejet brutal des clients pour l’usage d’une techno qui leur gâchait le plaisir des courses, ces derniers rejetant « la proposition » qui leur était faite de travailler à la place des hôtes de caisse.

    En France, depuis quelques années déjà, la filiale d’Auchan proposait un petit scanneur à domicile permettant de créer des listes de courses depuis les produits que l’on a chez soi. Pour l’avoir testé, son inanité m’apparut évident dès lors qu’il me fallut plusieurs essais pénibles (et avec plein de bonne volonté) pour le configurer. Il me semblait dès lors difficile d’imaginer que mes congénères humains; moins compréhensifs vis à vis de la technologie, puissent s’acharner avec la même énergie.

    Deux cas proches, deux dates presque similaires, montrent le même symptôme : des objects connectés fonctionnels technologiquement, mais hors de propos pour l’utilisateur. Trop contraignants, trop compliqués, avec une valeur perçue inférieure à l’investissement nécessaire pour maîtriser l’usage.

     

    Deux exemples qui montrent qu’il faut intégrer une véritable démarche UX au sein de l’innovation

    Tous les objets connectés ne connaissent pas un si triste destin, mais ces exemples viennent nous rappeler à nouveau le besoin impérieux de tester, et de retester, avec de vrais utilisateurs finaux, et selon un véritable protocole, la valeur perçue d’un objet connecté, son utilisabilité, et, in fine, ses chances de parvenir à être adopté par sa cible utilisateur. Nous pensons, chez Wexperience, que trop d’entreprises, quand elles utilisent la technologie et l’intègrent à un service, négligent cet aspect humain. Soit en ne menant pas jusqu’à terme les bonnes procédures de test et selon le bon protocole. Soit, carrément, et c’est le plus souvent le cas, en les ignorant totalement. Et cela est bien difficile à comprendre si l’on compare le coût de quelques tests utilisateurs comparés aux quelques millions de dollars que Walmart a du débourser pour installer des scanneurs dans 150 magasins et les retirer 4 mois plus tard.

     

     

    Photo par Walmart

  • Le design graphique, c’est de l’ergonomie ?

    Le design graphique ne serait-il qu’une couche de peinture destinée à faire beau ?

    Pendant longtemps, les pages de sites webs étaient créées dans des logiciels de graphisme comme Photoshop ou Illustrator (ou dans d’autres solutions graphiques plus ou moins aptes à remplir ce rôle). Mais l’habitude est désormais prise de passer par une phase de « wireframing » sous des logiciels spécialisés, c’est à dire une phase de conception détaillée ou la « couche graphique » d’un site n’est pas intégrée. Un « wireframe », c’est une maquette de page sans les couleurs, les effets graphiques, les photos et autres médias. C’est un plan qui indique où sont placés les différents éléments d’une page et qui permet, notamment, de pouvoir faire rapidement des modifications lors de la phase de conception sans recourir à des logiciels, comme ceux cités au début de cet article.

    Et quand on voit certains « wireframes » aujourd’hui, c’est à se demander s’il reste encore nécessaire d’y ajouter une couche de design graphique.

     

    On image, à tort, que le design graphique n’est là que pour transcrire l’identité de marque

    Mais tout de même, le design graphique joue bien un rôle d’importance ! Tout d’abord et de toute évidence, il permet de retranscrire en « images » l’ADN de la marque et son identité graphique. On aurait donc bien du mal à s’en passer. Toutefois à ce premier rôle s’en rajoute un deuxième : celui de finaliser l’ergonomie d’une interface. L’ergonomie d’une interface, ce n’est pas que du fil de fer. C’est aussi des couleurs, des formes, des animations, des styles de police de caractères où chaque élément va jouer un rôle précis et déterminé. Et bien souvent, les tenants d’un projet l’oublie et on bien du mal à argumenter leurs choix. Ce qui est bien dommage, car tout cet apport graphique n’est jamais gratuit et peut très bien s’expliquer rationnellement, contrairement à la magie noire, l’astrologie ou bien l’art.

     

    Regardons cela un peu dans le détail…

    Le wireframe

     

    Les maquettes de conception détaillée, comme celle-ci, permettent de concevoir de manière détaillée l’architecture d’information d’une page

     

    Comme vous pouvez le voir, la maquette ci-dessous n’est pas utilisable en exploitation commerciale, mais pourtant, d’une certaine manière, tout ce qui peut permettra à l’internaute de l’utiliser est déjà là : les contenus sont les contenus définitifs, l’organisation et la hiérarchisation de l’information est parfaitement définie. Certaines couleurs sont déjà posées.

    C’est à partir de ce genre de maquettes que Wexperience réalise des tests utilisateurs, preuve que l’internaute peut se débrouiller sans l’identité graphique de la marque. C’est aussi ce type de document qui va être fourni au designer graphique (UI/Web designer) dont le rôle va consister :

    • à appliquer l’identité de la marque,
    • à parfaire l’ergonomie de la page.

    En général, une telle maquette est accompagnée de spécifications écrites qui décrivent les interactions (vers où pointent les liens, où il y aura des interactions, quels sont les contenus dynamiques, etc) et qui permettent aussi au designer graphique de mieux s’imprégner des contraintes techniques du projet.

    Pourquoi certains boutons sont en bleus ?

    Pas nécessairement pour qu’ils soient bleus dans la maquette finale 🙂 En réalité, cette couleur (ou une autre) sert à indiquer que certains points de l’interface devront ressortir de manière particulièrement visible. Ici, ce sont les boutons d’actions (CTA) principaux. Et c’est normal, puisque cette page est destinée avant tout à générer de la demande de devis et que ces boutons emmènent justement vers cette fonctionnalité du site.

    Comme vous pouvez également le voir, il n’y a pas de photos. Et c’est normal ! A ce stade, les photos n’apportent rien à la conception de la page. Et comme elles requièrent un temps de recherche assez long, elles ne sont pas intégrées.

    La maquette graphique

    Des visuels d’ambiance qui augmentent l’attractivité de la page

    Les photos jouent un rôle dans l’ergonomie de la page. Ici, elles sont essentiellement destinées à rendre plus humaine l’interface, à attirer le regard grâce à un potentiel émotionnel faisant appel à nos souvenirs liés autour de la famille. Rien de tel que les émotions pour capter l’attention d’un utilisateur, surtout lorsqu’il s’agit d’une offre aussi peu attrayante que des produits de complémentaire santé. Plus les photos sont grandes, plus leur pouvoir d’attraction est important. Pour cette raison, dans le corps de la page, leur taille a été augmentée par rapport aux préconisations du « wireframe ».

    Utilisation des couleurs pour focaliser l’attention

    La charte de GSMC comprend des couleurs vives que l’on aurait pu choisir de minimiser. Au contraire, nous nous sommes reposés dessus pour créer des grands blocs (comme des blocs de Duplo) pour, encore une fois, capter l’attention et scander la page d’un rythme doucement soutenu. N’oubliez pas que sur un écran, tous ces blocs ne sont pas vu en une fois, mais apparaissent au fur et à mesure de son déroulement à l’écran.

    Le bleu marine pour l’action

    C’est une couleur de la charte graphique qui a été choisi pour les boutons d’actions principaux. Tout ce qui est en bleu marine sur la page guide donc vers la demande de devis. Et cette couleur sera systématiquement utilisée pour tous les boutons d’action principaux du site. On respecte ainsi une des préconisation des critères de Bastien et Scapin : la cohérence.

    Animations

    Nous avons parlé jusqu’à maintenant de design graphique, mais lors de la livraison d’un projet, il existe aussi une dimension rarement évoquée dans les articles de blog. Il s’agit du travail de recherche sur les interactions et les animations. Comme il n’est pas possible de le réaliser sur des wireframes, celui-ci est réalisé à part sur Principle, un logiciel dédié.

    Animer un site est devenu essentiel pour celui qui veut créer une expérience utilisateur (UX) plus mémorable. Et ce n’est pas la dernière roue du carrosse ! Bien au contraire ! Nous considérons, chez Wexperience, qu’elle est indispensable pour fournir un travail complet qui servent tous les objectifs, y compris les objectifs de conversion (ici, la génération de leads).

    Conclusion

    Il est indispensable de comprendre que le design n’est pas de la décoration. Si vous pensiez qu’il ne s’agissait que d’ajouter une couche de peinture sur des murs blancs, vous devriez, au contraire, comprendre, que la conception graphique, telle que nous la pratiquons, vient renforcer les qualités ergonomiques d’un site, et sont appliquées dans un but unique, celui de l’amélioration des kpi liés à la marche des affaires. Et il faut aussi ajouter à cela une dimension mal comprise souvent : l’animation, qui, savamment intégrée, vient renforcer les qualités ergonomiques de l’interface en augmentant ses qualités émotionnelles.

     

    Voir le site en production.

     

    Photo by Ari He on Unsplash

     

  • Non, les interfaces vocales ne vont pas faire disparaître nos écrans !

    Les interfaces vocales font le buzz ! Vont-elles envahir nos vies ?

    Et c’est tout le contraire qui risque d’arriver. Malgré le buzz qui entoure ces nouvelles interfaces, et suite à la démo bluffante de Google lors de I/O Google, sa conférence annuelle, penser que demain toutes nos interactions se feront à travers les interfaces vocales est une grossière erreur.

    Les interfaces vocales ne peuvent pas tout !

    Tout d’abord, les interfaces vocales sont loin d’être au point. Quelques utilisations à titre personnel, plus quelques tests, plus un usage régulier, laissent facilement voir que la fluidité et l’intelligence qu’on attend d’elles sont loin de pouvoir fournir une expérience satisfaisante à la fois pour la masse et, à la fois, pour des tâches compliquées. Et les annonces faites par Google sur la possibilité d’enchaîner des questions/réponses dans un contexte, le fait de ne pas avoir à dire « Ok Google » pour activer l’assistant, montre que les progrès à faire restent encore immenses par rapport aux promesses.

     

    D’autre part, le tout vocal n’a pas de sens. L’être humain, lui même, ne s’exprime pas uniquement par la voix. Pour interagir, il a besoin d’images, ne serait-ce même que dans la communication verbale. Il est connu qu’au téléphone, nous perdons un bon pourcentage de nos capacités à interpréter les intentions de notre interlocuteur, tout simplement parce que nous ne le voyons pas et perdons tous les signes de communication non verbale. Mais plus encore, les interfaces vocales ont la même limitation que les humains pour les mots. Parfois, un dessin (ou une image) vaut mieux que mille mots. Evidemment ! Comment allez-vous faire pour décrire plusieurs sortes de rouleaux de papiers hygiénique à votre Amazon Echo lorsque vous souhaitez refaire votre stock ? Comment décrire un vêtement ? Comment même, naviguer simplement dans une liste de produit uniquement à la parole sans même voir cette liste produit ? Amazon y a vite apporté une réponse : en dotant son assistant vocal d’un écran. C’est le Echo Show. Et Google est en train de faire de même en licenciant son Google Home à d’autres fabricants qui vont pouvoir y ajouter un écran.

     

    En réalité, le vocal n’a pas vocation à remplacer le visuel partout, mais uniquement dans des situations particulières., lorsque, notamment l’utilisateur est occupé à faire autre chose. Ce qui inclue les activités comme conduire, faire la cuisine, être occupé à une tâche professionnelle, ou plus simplement pouvoir piloter une activité quand le moindre appareil, téléphone, tablette, télécommande, etc n’est à portée de la main (encourageant par là, notre tendance naturelle propension à faire le moins d’efforts possibles).

    Ne nous laissons pas bercer par les sirènes du vocal !

    Même si la technologie est prometteuse et qu’il n’y a aucun doute qu’elle va bouleverser nos usages dans les 2 ou 3 ans à venir, il ne faut pas en attendre des miracles.

    Certes, il sera possible à terme de remplacer des humains pour répondre au téléphone (mais pas complètement), mais cela restera une minorité d’usage.

     

    En revanche, il est très probable que le vocal s’immisce dans toutes les interactions comme un complément d’accès aux fonctions de pilotages d’une application, d’un service, d’un site web. Les gens en prendrons doucement l’habitude, mais ça non plus n’est pas gagné. Il faut des années avant qu’une nouvelle interface soit pleinement acceptée par les utilisateurs finaux. Ceux qui sont assez vieux pourront se souvenir du temps qu’à mis la souris pour s’imposer à tous (et il y a pas mal d’anecdotes amusantes à raconter sur ce sujet).

    Même si les GAFA tentent d’imposer leur usage à des enfants (c’est déjà le cas), le temps que des populations entières changent et adaptent leurs habitudes à ces interfaces sera long, de l’ordre d’une bonne dizaine d’années.

    Mais tout cela ne devrait pas vous empêcher de tester et de vous faire votre propre idée.

    Je pense toutefois que l’on reste encore dans le domaine de l’expérimental et que bâtir des business model entier sur le seul principe du service vocal reste encore dangereux. Mieux vaut tenter de le saupoudrer, de l’immiscer doucement au sein de l’existant, d’en mesurer et auditer correctement l’activité, puis de pousser lentement ses pions dans la bonne direction.

     


     

    Photo by Colin Maynard on Unsplash

     

  • Quand le design doit tromper l’utilisateur

    Certains sites usent et abusent de techniques de persuasion basées sur la peur

    D’une certaine manière, l’UX doit être au service du marketing et de la stratégie d’entreprise. Mais qu’en est-il lorsque le marketing batifole avec les frontières floues d’une certaine malhonnêteté ?

    J’en prends pour témoin l’expérience que j’ai vécue récemment sur le site d’une compagnie aérienne low-cost. Fort d’une offre attractive qui tire sur les prix, son objectif est de bonifier le panier moyen à l’aide d’options que l’utilisateur peut refuser de prendre ou pas. La technique est vieille comme le monde. On attire les mouches avec un prix bas et on tente à tout prix de leurs soutirer quelques euros par ci par là pour générer de la marge. Rien de répréhensible à cela, sauf qu’à force d’utiliser des messages flous, inquiétants, ou de faire payer pour des services qui n’en sont en réalité pas, on peut se demander où une telle stratégie mène quand à la fidélisation de la marque.

    L’impression du client est celle d’être un poulet qu’on tente de plumer jusqu’au fondement.

    Créer de l’angoisse est-il un bon calcul ? Dans cette proposition, l’utilisateur ne peut qu’être amener à douter et à choisir l’option.

    Ces techniques ne peuvent pas mener à la fidélisation

    J’appelle ces techniques du « black design » ou un design qui viserait systématiquement à angoisser l’utilisateur, à jouer sur ses craintes ou à le faire venir pour un prix, tandis qu’en réalité, il paiera finalement plus.

    Sans remettre en question le fait de tenter de gonfler la valeur du panier, il me semble qu’une autre approche est possible, plus respectueuse de l’utilisateur, sans avoir à utiliser de procédés générant de la peur ou de l’angoisse (et, je pense très fort à Netflix qui offre une vraie liberté de choix dans ses offres sans contraindre ou forcer).

    Il me semble même que la transparence en toute circonstance est un bien meilleur calcul sur le long terme, car elle permet de créer la confiance. Et, in fine, d’augmenter la fidélisation. Et que vaut-il mieux ? Des clients qui reviennent sereinement ou des clients qui ont l’impression permanente qu’on essaie de vider leurs poches ?

    Le design UX possède aussi ce rôle là. De respecter les techniques marketing tout en respectant l’utilisateur. 

    Photo by Isaac Castillejos on Unsplash

  • Pour ou contre les tests utilisateurs à distance ?

    Les tests utilisateurs à distance complètent-ils ou remplacent-ils les tests en labo ?

    La question peut se poser, car, implicitement, la notion de test utilisateurs à distance semble impliquer des économies de coûts et des gains de temps par rapport à un test utilisateur en studio (ou en labo). Mais cela n’est pas si simple.

    A l’origine, il y avait les tests utilisateurs en labo. Pour une raison simple, la bande passante Internet jusqu’au début des années 2010 permettait difficilement d’enregistrer en live le flux vidéo d’un test à distance. Ou, du moins, certainement pas avec le niveau de qualité nécessaire pour obtenir une bonne analyse.

    Aujourd’hui, et les technologies, et les équipements des particuliers permettent sans aucun problème de mettre à distance ce protocole.

    Alors pourquoi, si le coût est moindre et le gain de temps évident, faudrait-il continuer à faire des tests en labo ?

    J’aimerais répondre ici simplement et sans à priori.

    Attention à ce que recouvre vraiment le terme de test utilisateur !

    Tout d’abord, que l’on comprenne bien ce qu’est un test utilisateur dans les règles de l’art.

    Ce sont une série d’entretiens individuels, que l’on dit « facilités », c’est-à-dire que les taches sont indiquées par un expert UX qui s’efforce de ne pas biaiser le comportement des utilisateurs, (guidés) par un expert UX selon un plan de test déterminé dans un laps de temps déterminé.

    Ces tests sont dit qualitatifs dans la mesure où il a été depuis longtemps démontré qu’un panel de 5 testeurs minimum pouvaient suffire, à minima, pour commencer à récolter des informations importantes sur la qualité de l’expérience utilisateur d’un site ou d’une application. Au delà de 12 testeurs, nous sommes dans la plénitude du test. Il n’est donc pas nécessaire d’en embaucher plus pour aller plus loin. Promettre de faire un test avec 30 ou 40 personnes n’a pas de sens et n’apportera pas de résultats supplémentaires.

    La facilitation est également un aspect primordial de ces tests. Elle consiste essentiellement à préparer psychologiquement le testeur, à lui expliquer les tâches si nécessaires, à lui poser des questions, le faire parler, et éventuellement, à le sortir d’une impasse s’il est bloqué. Autre avantage du facilitateur : sa simple présence permet d’assurer que les tâches sont exécutées pleinement et pas à moitié terminée si personne n’est là pour accompagner le testeur.

    Une fois cela dit, un test utilisateur à distance est la même chose qu’un test in situ.

    Dans tous les cas, une fois les enregistrements terminés, alors s’annonce un travail d’analyse, très long (chaque enregistrement doit être revu), mais qui permet de prendre le temps de la réflexion et de recroiser sereinement les données d’observation afin de fournir un rapport d’analyse et de recommandations.

    C’est ce que nous faisons chez Wexperience et c’est ce qui fait notre plus-value.

    Des tests sans enregistrements entraînent le risque fort d’une analyse biaisée sans prise de recul

    Par exemple, certaines agences ou UX researcher indépendant peuvent très bien faire des tests uniquement en prise de note (sans enregistrement). Si cette méthode peut faire gagner du temps, elle ne va pas assez loin dans l’analyse en profondeur d’une interface. Les enregistrements permettent de prendre du recul et de ne pas se fier qu’à la seule mémoire ou prise de notes. Une trace inaliénable reste disponible et cette source d’information est incomparablement précieuse.

    Quels sont dès lors les avantages du test à distance ?

    • Ils permettent de rassembler des groupes d’individus qui pourraient être autrement difficile à rassembler (essentiellement du point de vue géographique)
    • Ils permettent d’avoir une souplesse dans les horaires de passation d’entretiens, ce qui peut être adapté pour certains profils professionnels
    • L’observation du test par des personnes tierces peut-être faite depuis n’importe quel endroit
    • Les utilisateurs sont dans leur environnement avec leur matériel, dans une situation plus naturelle qu’en labo

    Mais ils présentent aussi des inconvénients :

    • D’abord la qualité de la relation entre le facilitateur et l’utilisateur est très nettement dégradée. Un entretien par Skype ne vaut pas un entretien en face à face. A distance, beaucoup de signaux comportementaux échappent au facilitateur. Il en résulte que l’interprétation des actions de l’utilisateur peuvent plus facilement être biaisés.
    • La qualité des enregistrement est nécessairement moins bonne. In situ, par exemple, nous pouvons ajouter l’eye-tracking et la qualité des enregistrements ne souffre pas des problèmes de bande passante (certains utilisateurs peuvent avoir des connexion de mauvaise qualité, etc.)
    • Le matériel utilisé change d’un utilisateur à l’autre, ce qui ne facilite pas les comparaisons. L’intérêt du laboratoire, notamment, est de pouvoir éliminer les effets parasites dûs à des conditions d’expérience différentes
    • La motivation de l’utilisateur peut être moindre.

    Pourquoi quand même faire des tests utilisateurs à distance ?

    Bien que chez Wexperience, nous restons des fervents adeptes du test en labo, les tests à distance peuvent parfois être nécessaire :

    • Pour des raisons de timing. Le temps de recrutement et d’organisation des sessions de test peut être raccourci assez drastiquement avec le test à distance
    • Pour des raisons géographiques, tout simplement, si vos utilisateurs se trouvent dispersés dans toute l’Europe, pas la peine d’essayer de les faire venir au même endroit.

    Conclusion : les tests à distance, oui, mais pour un travail en profondeur, le moins souvent possible

    Tester in situ reste la voie royale des test. C’est celle qui permet de faire ressortir au mieux les points forts et les points faibles d’une interface.

    La facilitation ne devrait jamais être esquivée lors d’un test utilisateur. Une grande partie de leur valeur repose sur la présence humaine auprès du testeur.

    Les tests à distance sont recommandés pour des raisons de timing (si le délai est vraiment très serré) ou des raisons géographiques.

    Photo by Ilya Pavlov on Unsplash

    Pour tout savoir sur le sujet des tests utilisateurs, découvrez notre recette 5 étoiles by Wexperience ! Pour la télécharger, cliquez ici 👈

  • Google assistant parle comme un vrai humain. Et alors ?

    Une démonstration de dialogue homme/machine bluffante !

    Tout le monde a été bluffé hier, et sera encore bluffé pendant quelques jours, par l’incroyable démo que Google nous a offert lors de sa keynote. Une prise de rendez-vous téléphonique par Google Assistant avec une vraie employée d’un vrai salon de coiffure.

    Bluffant, parce que, apparemment la personne en face, celle du salon de coiffure, n’a pris conscience à aucun moment qu’elle parlait avec une machine.

    Bluffant, parce que le dialogue était d’une fluidité qu’aucune machine du marché actuellement n’est capable d’obtenir.

    Bluffant, parce qu’aucun accroc ne s’est glissé dans la conversation, Google Assistant comprenant tout ce que lui disait la personne du salon de coiffure, jusqu’à ses intonations de voix.

    Bluffant, surtout par la capacité des gens de la Sillicon Valley a nous éblouir avec des démonstrations, à mon avis, loin des réalités du marché, mais si impressionnantes et réussies qu’on en oublie, justement, que ça ne sont que des démonstrations. Et si vous avez un doute là dessus, relisez un peu les articles sur la première démo de l’Iphone en 2007 par Steve Jobs qui n’avait été en réalité qu’un énorme bricolage, car rien, de rien, ne fonctionnait en vrai sur l’iPhone ce jour là.

    Cette technologie verra-t-elle vraiment le jour sur le marché ?

    Mais au delà de cet effet publicitaire, faut-il dès lors quand même s’interroger sur les promesses d’une telle technologie et croire qu’elle envahira les plateaux téléphoniques des services de relation client d’ici quelques années ?

    C’est, en fait, plus que certain. La phase de maturation sera longue, car parler comme un humain demande beaucoup d’apprentissage, et aussi beaucoup de puissance machine. Et je ne suis pas sûr que nous en soyons déjà à ce stade d’industrialisation de la parole humaine. Mais oui, on peut le croire, demain, nous nous adresserons en grande partie à des machines dans nos relations avec les marchands ou les services publics.

    Mais le changement sera long et progressif, plutôt que brutal, comme beaucoup pensent le croire.

    D’abord, pour des raisons de résistances humaine. On ne va pas jeter à la poubelle des milliers de jobs comme cela (en tout cas, il faut l’espérer). Et d’autre part, parce que la technologie de reconnaissance vocale et de parole progresse par petits pas plutôt que par à-coups. Et enfin, parce qu’il est probable qu’en réalité, machines et humains se côtoieront plus qu’ils ne se remplaceront pour prendre en charge la relation client. Et en somme, ça ne sera pas si différent que ça d’aujourd’hui où déjà une partie des traitements sont automatisés par email ou par chat.

    En tout cas, bravo à Google pour cet exploit technologique ! Et attendons de voir ce que vont répondre ses concurrents : Amazon, Apple, mais aussi les géants chinois (et pourquoi pas aussi les européens pour le peu qu’ils s’en donnent les moyens).

     

    Bonne journée !

     

    A lire, les explications de Google sur son blog :

    Photo by Tyler Lastovich on Unsplash