Intelligence Artificielle : êtes-vous prêt à dégrader les résultats pour améliorer son adoption ?

0 commentaires

L’IA nous fait peur. Qu’elle soit déterministe (fondée sur des règles que les experts ont créées) ou statistique (fondée sur du machine learning), ces algorithmes permettent de faire des recommandations avec une rationalité bien supérieure à celle que notre intelligence humaine personnelle peut produire.



Que devient alors la place de l’homme ?
Cette peur primale crée du rejet. Comment l’éviter ? Comment réussir cette transformation ? Comment faire accepter l’IA ?
  • Est-ce à nous de nous adapter, c'est-à-dire lâcher prise sur les milliers d'années qui ont façonné notre cerveau et nos interactions rationnelles et émotionnelles ?
  • Est-ce à la machine-IA de s'humaniser pour rentrer dans notre Monde ?
Pour répondre à ces questions, soyons méthodiques :

  1. Commençons par comprendre ce qui fait notre grandeur d’humain : dans notre Monde, nous avons appris à nous fier à notre propre jugement. Et nous sommes fiers de sa qualité.
  2. Cette fierté nous conduit donc à privilégier nos intuitions ou prédictions personnelles à des modèles statistiques « je suis meilleur que la machine ».
Des chercheurs de Wharton l’ont prouvé. Mais surtout, ils ont trouvé une voie pour réconcilier l’homme et la machine :

Ils ont fait l’expérience de demander à des personnes de prédire les résultats d'un groupe d’élèves sur des tests standards et d’observer comment ces personnes faisaient leurs prédictions.

Le premier groupe devait choisir entre leurs prédictions et celles faites par un algorithme. Le deuxième avait le même choix possible mais avec la possibilité de modifier légèrement ou beaucoup la réponse de l’algorithme.
  • Dans le premier groupe, un tiers seulement des personnes a choisi de privilégier les prédictions de l’algorithme à leurs propres prédictions. 
  • Dans le deuxième groupe, ce sont les trois quarts qui ont choisi de faire confiance à la prédiction de la « machine ».
Les conclusions des chercheurs de Wharton sont que les personnes qui ont la liberté de modifier les résultats d’un modèle acceptent ce modèle et reconnaissent alors que la machine est un meilleur prévisionniste qu’eux-mêmes.
Autrement dit, un homme qui sait qu’il a la liberté de modifier les résultats d’un algorithme, quitte à en dégrader la qualité, acceptera les résultats de cet algorithme (et rien ne dit qu’il utilisera effectivement cette liberté).

Nous avons appliqué ces enseignements  pour construire l’adoption des reporting à valeur ajoutée fondés sur de l’IA que nous déployons pour trois grands groupes

La volonté de pouvoir influencer les règles utilisées ressortaient de manière diffuse des ateliers métiers que nous conduisons.
Nous avons donc créé une interface qui permet librement de faire évoluer un certain nombre de curseurs qui formatent le reporting.
Ainsi, le financier peut faire évoluer comme il l'entend le seuil d’alerte d’un écart au budget. Il peut choisir de déclencher une alerte avec un écart de 5% alors que la « règle machine » est de 10%,

L'adoption du système et la confiance dans son analyse et ses recommandations sont montées en flèche, avec ce commentaire « j'ai le sentiment de commander la machine IA ». Même si, en pratique, le curseur est resté à 84% sur le seuil initial de 10%.
C’est ce que nous appelons « une Passerelle du changement de Monde » car elle fait le lien entre notre Monde Humain et le "monde" de la machine IA

Moralité : si vous voulez que vos équipes acceptent les résultats de vos « machines IA », alors vous devez accepter qu'elles puissent en altérer les résultats librement.
L’homme a peut-être tort sur le fond mais cette imperfection qu’il introduit créera l’adoption. 
C’est parce que la machine va vers l’Homme, que l’Homme ira vers la machine.

Laurent Dugas

0 commentaires :

Publier un commentaire