Quantifier la recherche qualitative par Leisa Reichelt


À #mtpcon San Francisco, Leisa Reichelt, responsable de la recherche et des analyses chez Atlassian, a adopté notre approche actuelle de la recherche sur les utilisateurs et la façon dont nous adoptons une approche fondée sur des preuves pour faire complètement la mauvaise chose.

Il y a cinq ans, l’industrie se concentrait uniquement sur le fait d’amener les gens à faire tout recherche d’utilisateurs. Les chefs de produit ne parlaient pas du tout régulièrement aux clients. Ces jours-ci, la volonté des entreprises d’être «obsédées par le client» a ouvert une nouvelle ère où toutes les personnes parle aux clients. Les concepteurs, les chefs de produit et les chercheurs pensent tous que l’utilisation de la recherche est une fonction première de leur travail. Et si la recherche est meilleure lorsqu’elle est menée en équipe, combien de temps consacrons-nous à développer notre expertise en recherche afin de bien le faire?

Bien que nous devrions être là-bas pour faire des recherches, nous laissons passer de mauvaises recherches pour des preuves, et nous prenons des décisions sur les données que nous ne devrions pas utiliser à cette fin. Nous gâchons la recherche en essayant de quantifier les choses et de les faire paraître plus scientifiques qu’elles ne le sont en réalité.

Perspective et vérité

Leisa Reichelt montre à quel point un canard est différent de son ombre
Ne regarder que des parties d’une image peut donner une perspective déformée, et nous pouvons voir des choses qui semblent significatives mais qui ne le sont pas. Nous devons nous assurer d’avoir une image suffisamment large de la recherche pour prendre une bonne décision. Si vous voyez l’ombre d’un canard, elle peut être très différente du canard lui-même. Cela se produit également dans la recherche. Nous avons une vision étroite des données et prenons des décisions basées sur l’ombre. L’ombre est réelle, mais le canard est plus réel, et nous devons élargir notre contexte pour obtenir la pleine vérité.

Erreurs de recherche courantes

Entretiens clients

Les gens peuvent se faire une opinion sur n’importe quoi, et ils le feront si on leur demande. Jakob Nielsen

Les entretiens avec les clients sont une méthode courante de recherche sur les utilisateurs que les équipes gâchent. Les réponses que vous obtenez lors des entretiens dépendent des questions que vous posez, et en posant les mauvaises questions, vous pouvez être vraiment enthousiasmé par des données qui n’ont pas du tout d’importance. Nous posons des questions basées sur des fonctionnalités telles que “Quelle est la chose que vous faites le plus souvent dans Jira?” et obtenez des réponses étroites. Nous devrions nous poser des questions telles que «Que faites-vous le plus souvent lorsque vous utilisez Jira?» Avec un contexte large, vous en apprenez davantage sur le «pourquoi», entendez les lacunes et les opportunités que le produit peut manquer, et pouvez éventuellement approfondir pour explorer les fonctionnalités elles-mêmes.
Leisa Reichelt s'exprime à mtpcon
Pour faire de meilleurs entretiens avec les clients:

  • Commencez avec un contexte large: ne commencez pas par des questions sur votre produit
  • Soyez centré sur l’utilisateur et non sur le produit: vous devriez pouvoir utiliser le même script pour le produit d’un concurrent
  • Investissez dans l’analyse: obtenir des transcriptions des entretiens, prendre le temps de faire des diagrammes d’affinité et vraiment tirer pleinement parti de la recherche

Tests d’utilisation

Nous prenons des décisions basées sur des tests d’utilisabilité tout le temps. Une méthode populaire qui a vu le jour est le «test d’utilisabilité à distance non modéré». Avec ce type de test, vous utilisez un logiciel qui vous permet de créer des tests, de les publier et de permettre aux utilisateurs d’effectuer des tests d’utilisabilité de n’importe où. Cela vous permet d’effectuer de nombreux tests sans jamais parler directement à un utilisateur, mais cela comporte de nombreux pièges.
Leisa Reichelt parle des tests d'utilisabilité non modérés chez mtpcon
Avec des tests d’utilisabilité en personne, un chercheur expérimenté est capable de discerner la différence dans ce qu’un utilisateur dit et ce qu’ils faire. Ils peuvent voir le langage corporel qui indique quand un utilisateur est frustré, ou voir quand un utilisateur n’a terminé une tâche qu’en cliquant au hasard autour d’un écran. Mais avec des tests d’utilisabilité non modérés, les équipes téléchargent souvent simplement des données plutôt que de regarder les vidéos des tests; ces choses sont transformées en une simple métrique de «tâche accomplie», et les citations et les évaluations sont tirées sans le contexte plus large.

Pour faire de meilleurs tests d’utilisabilité:

  • Rendre la tâche de test non basée sur les fonctionnalités: tester ce que les gens feraient vraiment, pas la fonctionnalité que vous souhaiteriez qu’ils utilisent
  • Regardez les vidéos en temps réel: ne vous contentez pas de télécharger les données issues de tests d’utilisabilité non modérés
  • Regardez au-delà de l’achèvement des tâches: ce n’est pas normal que les gens parviennent finalement au bon résultat – la qualité de l’expérience en cours de route compte

Enquêtes

La confiance dans les données grandit en fonction de votre distance par rapport à leur collecte. Scott Berkun

Les chefs de produit adorent les sondages. Plus vous vous éloignez du point de collecte des données, plus vous lui faites confiance. Mais des questions trompeuses et un manque de contexte peuvent fournir des données qui racontent une histoire très différente de la vérité. Leisa a donné un exemple d’Atlassian Summit, où un utilisateur a déclaré dans une enquête de vote par points qu’il avait un excellent équilibre entre vie professionnelle et vie privée. Lorsqu’elle leur a demandé quelle était leur réponse, ils ont répondu: «Je peux travailler à domicile, donc même si je travaille trop, j’ai de la flexibilité.» Le contexte donne une perspective différente du point de données. Ce n’est pas parce que vous pouvez le mettre dans un graphique que cela en fait une science. Nous devons être beaucoup plus critiques sur les données auxquelles nous faisons confiance.
Leisa Reichelt montre une mauvaise enquête auprès des utilisateurs à mtpcon
Pour faire de meilleurs sondages:

  • Utilisez des techniques qualitatives avant le quantitatif: faire des entretiens ou une enquête contextuelle avant de concevoir une enquête
  • Testez trois fois votre enquête: s’assurer que les gens comprennent les questions de manière cohérente et sont en mesure de répondre avec précision
  • Utilisez des humains pour analyser les mots: ne vous fiez pas à l’analyse de texte automatisée. Lisez les commentaires.

Arrêtez de quantifier la recherche qualitative

Pourquoi utilisons-nous ces méthodes de recherche et les utilisons-nous de manière incorrecte? Leisa pense que la raison principale est que nous n’avons pas le temps. Mais si nous prétendons être «obsédés par le client», pourquoi essayons-nous de limiter la recherche et l’empathie dans le plus petit laps de temps possible? Prenez le temps de bien faire les choses.

Leisa nous laisse avec la métrique que nous devrions réellement viser. Plutôt que d’effectuer de mauvaises recherches sur les utilisateurs, demandez simplement: “À la fin six semaines, avez-vous personnellement observé un client utilisant votre produit? » Si nous voulons créer de meilleurs produits, nous avons besoin de la vérité sur l’expérience de nos clients. Et la vérité ne peut pas être automatisée ou représentée graphiquement. Cela prend du temps et des humains.





Source

  • Partager cet article

Laisser un commentaire