Is Your AI Tool A Competent Jerk Or A Lovable Fool?

Le co-fondateur et PDG de Guru, Rick Nucci, a observé un grand écart croissant entre le battage médiatique sur l'IA et la réalité de l'IA, qui tend à conduire à des échecs de l'IA. Ces échecs impliquent généralement des outils IA « Approprié Mais Désagréable » et des outils IA « Fool Attachant ». Quelle solution IA choisissez-vous
Table des matières

Cet article est à l'origine paru au nom du Forbes Technology Council, une communauté pour les CIO, CTO et dirigeants technologiques de classe mondiale. Lisez l'article original ici.

Selon le PwC CEO Survey publié vers la fin du mois dernier, 45 % des organisations nord-américaines ont introduit des initiatives en intelligence artificielle (IA), avec 37 % supplémentaires prévoyant de le faire dans les trois prochaines années. Il n'est pas surprenant que tant de PDG adoptent des outils d'intelligence artificielle compte tenu des avantages vantés. En tant que PDG qui travaille avec des dirigeants de haut niveau dans des entreprises à forte croissance pour habiliter leurs équipes en contact avec les clients, j'observe un écart important et croissant entre le battage médiatique sur l'IA et la réalité de l'IA. Non seulement cela, mais je vois deux catégories d'« échecs de l'IA » — des initiatives qui n'arrivent pas à atteindre les résultats attendus. Celles-ci impliquent généralement des outils IA « Approprié Mais Désagréable » et des outils IA « Fool Attachant ».

artboard-1-copy.png

L'outil d'IA 'Approprié Mais Désagréable'

En 2014, l'équipe d'apprentissage automatique d'Amazon a construit un algorithme conçu pour accélérer le processus de révision des CV avec pour objectif de contourner le processus traditionnellement lent et coûteux piloté par des humains. Un ordinateur peut filtrer des milliers de CV plus rapidement même que le recruteur le plus expérimenté lisant rapidement. Utiliser l'IA dans cette situation semblait être une évidence — sur le papier.

Cependant, au bout d'un an, Amazon a réalisé que l'IA ne fonctionnait pas comme ils l'avaient espéré. En entraînant l'IA sur des modèles d'embauche et des CV soumis au cours de la dernière décennie — qui avaient tendance à être largement masculins — le système a décidé que les candidats devaient être des hommes pour être considérés comme des candidats de premier choix. Les CV qui incluaient le mot « femme » ou « femmes », ou qui mentionnaient des candidats diplômés de certains collèges pour femmes, étaient automatiquement déclassés. Même après des ajustements manuels à l'algorithme pour empêcher les biais les plus évidents, les dirigeants d'Amazon ont finalement perdu confiance et fermés le projet.

Cet exemple est une erreur très visible du type « Approprié Mais Désagréable ». Bien que l'outil de recrutement IA d'Amazon ait pu exécuter ses tâches avec fidélité, il a fini par amplifier les biais des êtres humains, ce qui a conduit à un résultat inacceptable dans tous les cas. Amazon n'est pas la seule victime d'un projet de ce type, d'ailleurs. Je connais des dizaines d'entreprises qui gèrent des projets d'IA en ce moment avec des résultats également décevants parce que leurs outils d'IA sont des « Appropriés Mais Désagréables ».

Pire encore, beaucoup de ces initiatives sont en contact avec les clients. Imaginez un outil d'IA « Approprié Mais Désagréable » lâché sur une décennie de réponses de vos agents de support aux questions et tickets des clients. Si l'outil optimise pour répondre aux questions des clients aussi rapidement que possible et les mettre au frais, il ignorera complètement toute occasion d'éduquer vos clients et peut-être de leur vendre des produits supplémentaires. Il ignorera également les émotions des clients et pourrait conduire à un plus grand nombre de vos clients à partir.

Il existe de nombreux autres modes de défaillance au-delà de ceux mentionnés ci-dessus. Êtes-vous prêt à parier sur le chiffre d'affaires de votre entreprise sur une bande d'outils d'IA « Appropriés Mais Désagréables » ?

L'outil d'IA 'Fool Attachant'

Bien que les « Appropriés Mais Désagréables » ne semblent pas si géniaux, les outils d'IA « Fool Attachant » peuvent être encore pires. Dans un effort pour rendre les chatbots plus humains, de nombreuses entreprises ont entrepris des efforts pour donner des « personnalités » à leurs chatbots. Malheureusement, cet effort se fait au détriment de l'efficacité de l'outil d'IA et de la valeur qu'il apporte aux clients. À l'extrême de l'échelle des outils d'IA « Fool Attachant », il y a cet exemple de deux bots coincés dans une boucle infinie répondant les uns aux autres sur Twitter. C'est l'équivalent moderne des deux idiots de village qui se crient dessus sur la place du village.

Un exemple plus réaliste (mais tout aussi frustrant) est le nombre croissant de fois où j'ai composé un numéro de téléphone du service client seulement pour entendre : « Bonjour ! J'espère que vous passez une excellente journée ! Veuillez exprimer à haute voix le problème que vous rencontrez.” Espérant, étant donné la « personnalité » agréable du bot, je fais le effort et parle dans mon téléphone, seulement pour que le bot me comprenne mal et redirige mon appel.

Un exemple réel de cela est le chatbot commercial de Vodafone appelé TOBi, qui apparemment redirigeait les clients vers l'équipe du deuil lorsqu'ils signalaient que leurs téléphones étaient « morts ». Malgré la douleur de tristesse que nous ressentons tous lorsque qu'un téléphone aimé fait son chemin vers le grand fournisseur dans le ciel, je ne crois pas que l'équipe du deuil soit là où la plupart des clients souhaitent être redirigés.

Vous pourriez soutenir que ces bots ne sont pas « vraiment IA », et je serais d'accord avec vous. Cependant, de mon expérience, ils sont certainement commercialisés de cette façon auprès des dirigeants d'entreprises du monde entier qui veulent s'assurer de ne pas manquer le virage de la prochaine grande vague d'innovation. Et étant donné le volume élevé d'appels de service client qui ont lieu, ceux-ci sont d'excellents terrains d'entraînement pour la prochaine génération d'outils IA « Fool Attachant ».

Une Meilleure Façon — Peut-être

Un enseignement pour moi personnellement, basé sur les histoires que j'ai entendues de clients et des outils que j'utilise personnellement en tant que consommateur, est que les outils IA ne sont pas prêts à remplacer les êtres humains. Nous faisons tant de choses bien, de la compréhension du contexte et de l'émotion et des colloquialismes à la communication efficace et à l'ajustement à tout moment lorsque les circonstances changent.

Une entreprise qui comprend vraiment cela est un géant discret de l'industrie fintech, PrecisionLender. Sa technologie IA permet aux banques de rédiger le prêt le plus optimal pour les clients potentiels. En même temps, elle habilite les banquiers qui rédigent les prêts à avoir des relations plus informées et meilleures avec leurs clients, tout en étant simultanément plus orientés données et plus humains que l'approche précédente qui mettait l'accent sur un résultat binaire, oui/non.

Imaginez un avenir où vous apprenez réellement à mieux utiliser les produits d'une entreprise chaque fois que vous appelez leur hotline de support. Nous sommes certainement à portée de main de cet avenir. Après tout, pourquoi se contenter d'un approprié mais désagréable ou d'un fool attachant lorsque vous pouvez avoir quelque chose de totalement différent : un partenariat véritablement bénéfique ?

Cet article est à l'origine paru au nom du Forbes Technology Council, une communauté pour les CIO, CTO et dirigeants technologiques de classe mondiale. Lisez l'article original ici.

Selon le PwC CEO Survey publié vers la fin du mois dernier, 45 % des organisations nord-américaines ont introduit des initiatives en intelligence artificielle (IA), avec 37 % supplémentaires prévoyant de le faire dans les trois prochaines années. Il n'est pas surprenant que tant de PDG adoptent des outils d'intelligence artificielle compte tenu des avantages vantés. En tant que PDG qui travaille avec des dirigeants de haut niveau dans des entreprises à forte croissance pour habiliter leurs équipes en contact avec les clients, j'observe un écart important et croissant entre le battage médiatique sur l'IA et la réalité de l'IA. Non seulement cela, mais je vois deux catégories d'« échecs de l'IA » — des initiatives qui n'arrivent pas à atteindre les résultats attendus. Celles-ci impliquent généralement des outils IA « Approprié Mais Désagréable » et des outils IA « Fool Attachant ».

artboard-1-copy.png

L'outil d'IA 'Approprié Mais Désagréable'

En 2014, l'équipe d'apprentissage automatique d'Amazon a construit un algorithme conçu pour accélérer le processus de révision des CV avec pour objectif de contourner le processus traditionnellement lent et coûteux piloté par des humains. Un ordinateur peut filtrer des milliers de CV plus rapidement même que le recruteur le plus expérimenté lisant rapidement. Utiliser l'IA dans cette situation semblait être une évidence — sur le papier.

Cependant, au bout d'un an, Amazon a réalisé que l'IA ne fonctionnait pas comme ils l'avaient espéré. En entraînant l'IA sur des modèles d'embauche et des CV soumis au cours de la dernière décennie — qui avaient tendance à être largement masculins — le système a décidé que les candidats devaient être des hommes pour être considérés comme des candidats de premier choix. Les CV qui incluaient le mot « femme » ou « femmes », ou qui mentionnaient des candidats diplômés de certains collèges pour femmes, étaient automatiquement déclassés. Même après des ajustements manuels à l'algorithme pour empêcher les biais les plus évidents, les dirigeants d'Amazon ont finalement perdu confiance et fermés le projet.

Cet exemple est une erreur très visible du type « Approprié Mais Désagréable ». Bien que l'outil de recrutement IA d'Amazon ait pu exécuter ses tâches avec fidélité, il a fini par amplifier les biais des êtres humains, ce qui a conduit à un résultat inacceptable dans tous les cas. Amazon n'est pas la seule victime d'un projet de ce type, d'ailleurs. Je connais des dizaines d'entreprises qui gèrent des projets d'IA en ce moment avec des résultats également décevants parce que leurs outils d'IA sont des « Appropriés Mais Désagréables ».

Pire encore, beaucoup de ces initiatives sont en contact avec les clients. Imaginez un outil d'IA « Approprié Mais Désagréable » lâché sur une décennie de réponses de vos agents de support aux questions et tickets des clients. Si l'outil optimise pour répondre aux questions des clients aussi rapidement que possible et les mettre au frais, il ignorera complètement toute occasion d'éduquer vos clients et peut-être de leur vendre des produits supplémentaires. Il ignorera également les émotions des clients et pourrait conduire à un plus grand nombre de vos clients à partir.

Il existe de nombreux autres modes de défaillance au-delà de ceux mentionnés ci-dessus. Êtes-vous prêt à parier sur le chiffre d'affaires de votre entreprise sur une bande d'outils d'IA « Appropriés Mais Désagréables » ?

L'outil d'IA 'Fool Attachant'

Bien que les « Appropriés Mais Désagréables » ne semblent pas si géniaux, les outils d'IA « Fool Attachant » peuvent être encore pires. Dans un effort pour rendre les chatbots plus humains, de nombreuses entreprises ont entrepris des efforts pour donner des « personnalités » à leurs chatbots. Malheureusement, cet effort se fait au détriment de l'efficacité de l'outil d'IA et de la valeur qu'il apporte aux clients. À l'extrême de l'échelle des outils d'IA « Fool Attachant », il y a cet exemple de deux bots coincés dans une boucle infinie répondant les uns aux autres sur Twitter. C'est l'équivalent moderne des deux idiots de village qui se crient dessus sur la place du village.

Un exemple plus réaliste (mais tout aussi frustrant) est le nombre croissant de fois où j'ai composé un numéro de téléphone du service client seulement pour entendre : « Bonjour ! J'espère que vous passez une excellente journée ! Veuillez exprimer à haute voix le problème que vous rencontrez.” Espérant, étant donné la « personnalité » agréable du bot, je fais le effort et parle dans mon téléphone, seulement pour que le bot me comprenne mal et redirige mon appel.

Un exemple réel de cela est le chatbot commercial de Vodafone appelé TOBi, qui apparemment redirigeait les clients vers l'équipe du deuil lorsqu'ils signalaient que leurs téléphones étaient « morts ». Malgré la douleur de tristesse que nous ressentons tous lorsque qu'un téléphone aimé fait son chemin vers le grand fournisseur dans le ciel, je ne crois pas que l'équipe du deuil soit là où la plupart des clients souhaitent être redirigés.

Vous pourriez soutenir que ces bots ne sont pas « vraiment IA », et je serais d'accord avec vous. Cependant, de mon expérience, ils sont certainement commercialisés de cette façon auprès des dirigeants d'entreprises du monde entier qui veulent s'assurer de ne pas manquer le virage de la prochaine grande vague d'innovation. Et étant donné le volume élevé d'appels de service client qui ont lieu, ceux-ci sont d'excellents terrains d'entraînement pour la prochaine génération d'outils IA « Fool Attachant ».

Une Meilleure Façon — Peut-être

Un enseignement pour moi personnellement, basé sur les histoires que j'ai entendues de clients et des outils que j'utilise personnellement en tant que consommateur, est que les outils IA ne sont pas prêts à remplacer les êtres humains. Nous faisons tant de choses bien, de la compréhension du contexte et de l'émotion et des colloquialismes à la communication efficace et à l'ajustement à tout moment lorsque les circonstances changent.

Une entreprise qui comprend vraiment cela est un géant discret de l'industrie fintech, PrecisionLender. Sa technologie IA permet aux banques de rédiger le prêt le plus optimal pour les clients potentiels. En même temps, elle habilite les banquiers qui rédigent les prêts à avoir des relations plus informées et meilleures avec leurs clients, tout en étant simultanément plus orientés données et plus humains que l'approche précédente qui mettait l'accent sur un résultat binaire, oui/non.

Imaginez un avenir où vous apprenez réellement à mieux utiliser les produits d'une entreprise chaque fois que vous appelez leur hotline de support. Nous sommes certainement à portée de main de cet avenir. Après tout, pourquoi se contenter d'un approprié mais désagréable ou d'un fool attachant lorsque vous pouvez avoir quelque chose de totalement différent : un partenariat véritablement bénéfique ?

Découvrez la puissance de la plateforme Guru de première main - faites notre visite interactive du produit
Faire une visite guidée