La conception de produits à l’ère de l’algorithme par Josh Clark


L’apprentissage automatique a envahi d’énormes parties de notre monde, du diagnostic des conditions médicales aux requêtes légales en passant par les joueurs humains de Go. Comment cela affecte-t-il la façon dont nous concevons, construisons et gérons les produits? Dans cet exposé perspicace de Mind the Product London 2017, Josh Clark partage comment nous devons penser à la conception et à la gestion des produits à l’ère de l’algorithme.

Plutôt que d’essayer de concevoir un itinéraire unique à travers une expérience ou un produit, lorsque vous travaillez avec des machines, il s’agit de déterminer tous les résultats possibles et comment les gérer. Les chefs de produit joueront un rôle clé dans ce processus, si nous espérons créer des produits qui auront un impact positif sur la vie des gens, plutôt que de simplement intégrer les injustices du passé.

Produit à l'ère de l'algorithme par Josh Clark à #mtpcon

À ce stade, les algorithmes font encore trop d’erreurs, ce qui retarde leur adoption généralisée. Les commandes vocales, par exemple, sont un domaine où il existe de nombreux bugs – les machines ont du mal à capter les nuances communiquées dans la plupart des langues. Picdescbot de Microsoft peut décrire ce qui se trouve dans une image, mais a encore du mal à faire la différence entre de nombreux types d’images. Mais cela ne va pas durer longtemps.

Alors, comment concevons-nous des produits dans le monde des algorithmes?

Embrassez l’incertitude

L’outil d’extrait de Google fournit des réponses aux questions posées – pour environ 15% des recherches. Quand cela fonctionne, c’est génial, mais il y a de nombreux cas où il se trompe. Cela peut être particulièrement risqué lorsqu’il est associé à des événements d’actualité et à la politique – compte tenu de la quantité d’informations controversées sur le Web.

Comme avec beaucoup de ces outils, une seule réponse est généralement présentée – ce qui par défaut réduit la nuance qui peut être illustrée. Nous devons concevoir des interfaces pour avoir une sorte d’humilité quand ils ne sont pas sûrs de la réponse. La plupart des outils d’analyse d’image actuellement disponibles ont une échelle de confiance, mais elle est rarement utilisée dans leurs sorties. Cela doit changer pour devenir vraiment utile – lorsqu’ils sont confus, qu’ils le disent.

Suite à cela, la transparence et la collaboration entre les humains et les machines sont des domaines où un travail vraiment intéressant peut se produire. Lorsqu’un algorithme échoue, c’est à ce moment-là que les machines doivent demander une contribution humaine pour améliorer leurs résultats. Wikipédia, par exemple, signale un certain nombre de ses pages comme «contestées» – afin que le lecteur sache procéder avec un œil extrêmement prudent.

Josh Clark Algorithm Era à #mtpcon

Les machines ne savent que ce que nous leur disons

Les ordures entrent dans les ordures. Le but de l’apprentissage automatique est souvent de décider de ce qui est normal et de signaler quand les choses vont s’en écarter. Le problème est qu’ils apprennent de la situation existante, qui est souvent loin d’être parfaite. Par exemple, la reconnaissance vocale de Google est plus mauvaise pour reconnaître la voix d’une femme que celle d’un homme en raison des données qui ont été fournies à l’origine. Cela peut empirer, il existe des exemples de l’industrie de systèmes automatisés qui ne reconnaissent pas les personnes à la peau foncée ou aux yeux non caucasiens.

Nous devons être conscients du fait que nous pourrions facilement coder nos biais historiques dans les machines du futur. Les personnes qui ont été persécutées dans le passé ne sont pas des valeurs aberrantes, elles doivent être intégrées dans le tissu de nos sociétés et nous pouvons aider à y arriver avec la technologie.

Josh Clark à #mtpcon

Collecte de données responsable

L’entrée de données est en fait une recherche UX à une échelle sans précédent. Les équipes de conception ont besoin de plus de diversité afin que nous puissions mieux interpréter ces entrées et permettre à nos produits de répondre aux besoins de la gamme de perspectives pour lesquelles nous concevons maintenant.

Nous devons permettre à nos utilisateurs de fournir facilement des données précises à nos produits. Tinder et Facebook l’ont fait, en raison des motivations inhérentes de leurs utilisateurs. Nous devons voir comment nous pouvons faire en sorte que nos utilisateurs nous aident à améliorer leurs expériences – mais cela doit être fait de manière transparente afin que tout le monde comprenne et accepte la façon dont ces données sont utilisées.

Zones d'informations hostiles sur #mtpcon

Soyez fidèle aux utilisateurs

Enfin, soyez fidèle à vos utilisateurs. Nous allons concevoir des produits qui ont un impact sur l’expérience, la vie et peut-être même les droits de l’homme. Nous devons prendre cela au sérieux et appliquer notre décence humaine aux décisions sur les produits – afin que nous puissions être gentils les uns envers les autres dans les outils et les expériences que nous faisons.





Source

  • Partager cet article

Laisser un commentaire