Is Your AI Tool A Competent Jerk Or A Lovable Fool?

O cofundador e CEO do Guru, Rick Nucci, observou um grande e crescente desencaixe entre o hype da IA e a realidade da IA, que tende a levar a falhas de IA. Essas falhas geralmente envolvem as ferramentas de IA 'Competente Jerk' e as ferramentas de IA 'Lovable Fool'. Qual solução de IA você

Este artigo apareceu originalmente em nome do Forbes Technology Council, uma comunidade para CIOs, CTOs e executivos de tecnologia de classe mundial. Leia o post original aqui.

De acordo com a Pesquisa PwC CEO divulgada no final do mês passado, 45% das organizações norte-americanas introduziram iniciativas de inteligência artificial (IA), com mais 37% planejando fazê-lo nos próximos três anos. Não é surpreendente que tantos CEOs estejam adotando ferramentas de inteligência artificial, dadas as vantagens alardeadas. Como CEO que trabalha com líderes seniores em empresas em rápido crescimento para capacitar suas equipes de atendimento ao cliente, estou observando um grande e crescente desencaixe entre o hype da IA e a realidade da IA. Além disso, estou vendo duas categorias de “falhas de IA” — iniciativas que não chegam nem perto de alcançar os resultados esperados. Essas geralmente envolvem as ferramentas de IA “Competente Jerk” e as ferramentas de IA “Lovable Fool”.

artboard-1-copy.png

A ferramenta de IA 'Competente Jerk'

Em 2014, a equipe de aprendizado de máquina da Amazon construiu um algoritmo projetado para acelerar o processo de revisão de currículos, com o objetivo de contornar o processo tradicionalmente lento e caro conduzido por humanos. Um computador pode analisar milhares de currículos mais rápido do que até mesmo o recrutador mais experiente em leitura rápida. Usar IA nesta situação era uma decisão segura — no papel.

No entanto, em um ano, a Amazon percebeu que a IA não estava funcionando como haviam esperado. Ao treinar a IA com base nos padrões de contratação e currículos enviados na última década — que tendiam a ser esmagadoramente masculinos — o sistema decidiu que os candidatos deveriam ser do sexo masculino para serem considerados os melhores. Currículos que incluíam a palavra “mulher” ou “mulheres”, ou que listavam candidatos como formados em algumas faculdades femininas, foram automaticamente rebaixados. Mesmo após ajustes manuais no algoritmo para prevenir os preconceitos mais óbvios, os executivos da Amazon acabaram perdendo a confiança e encerraram o projeto.

Este exemplo é um erro de alto perfil do tipo “competente jerk”. Embora a ferramenta de recrutamento de IA da Amazon possa ter cumprido bem suas funções, acabou amplificando os preconceitos dos seres humanos, o que levou a um resultado inaceitável sob qualquer perspectiva. Por falar nisso, a Amazon não é a única vítima de tal projeto. Conheço dezenas de empresas que estão executando projetos de IA agora com resultados igualmente decepcionantes, porque suas ferramentas de IA são “competentes jerk”.

Pior, muitas dessas iniciativas estão voltadas para o cliente. Imagine uma ferramenta de IA “competente jerk” solta em uma década de respostas dos seus agentes de suporte para perguntas e tickets de clientes. Se a ferramenta otimiza para responder às perguntas dos clientes o mais rápido possível e se livrar deles, ignorará completamente quaisquer oportunidades de educar seus clientes e talvez de realizar vendas adicionais. Ela também ignorará as emoções dos clientes e, talvez, levará a um aumento no número de clientes deixando.

Existem muitos outros modos de falha além dos mencionados acima. Você está disposto a apostar a receita da sua empresa em um monte de ferramentas de IA “competentes jerk”?

A ferramenta de IA 'Lovable Fool'

Embora os “competentes jerk” não pareçam tão bons, as ferramentas de IA “lovable fool” podem ser ainda piores. Em um esforço para fazer com que os chatbots pareçam mais humanos, muitas empresas se esforçaram para dar “personalidades” a seus chatbots. Infelizmente, esse esforço vem com um custo para a eficácia da ferramenta de IA e o valor que ela entrega aos clientes. No extremo da escala das ferramentas de IA “lovable fool” está este exemplo de dois bots presos em um loop infinito respondendo um ao outro no Twitter. É o equivalente moderno dos doisIdiotas da vila gritando um com o outro na praça da cidade.

Um exemplo mais realista (mas igualmente frustrante) é o número crescente de vezes que liguei para um número de atendimento ao cliente apenas para ouvir: “Olá! Espero que você esteja tendo um ótimo dia! Por favor, diga em voz alta o problema que você está tendo.” Esperançoso, dada a “personalidade” agradável do bot, eu atendo e falo no meu telefone, apenas para que o bot me entenda mal e redirecione minha chamada.

Um exemplo da vida real disso é o chatbot de comércio da Vodafone chamado TOBi, que aparentemente costumava direcionar os clientes para a equipe de luto quando eles relataram que seus telefones estavam “mortos”. Apesar da pontada de tristeza que todos sentimos quando um telefone amado faz seu caminho para o grande provedor no céu, não acredito que a equipe de luto seja onde a maioria dos clientes queira ser direcionada.

Você pode argumentar que esses bots não são “realmente IA” e eu concordaria com você. No entanto, em minha experiência, eles estão certamente sendo comercializados dessa forma para executivos seniores em empresas ao redor do mundo que querem garantir que não percam o barco na próxima grande onda de inovação. E dado o alto volume de chamadas de serviço ao cliente que ocorrem, estes são ótimos terrenos de treinamento para a próxima geração de ferramentas de IA “lovable fool”.

Uma maneira melhor — talvez

Uma lição que eu, pessoalmente, tiro, com base nas histórias que ouvi de clientes e nas ferramentas que uso pessoalmente como consumidor, é que as ferramentas de IA não estão prontas para substituir os seres humanos. Fazemos tantas coisas bem, desde entender contexto e emoção e coloquialismo, até comunicar de forma eficaz e ajustar num instante quando as circunstâncias mudam.

Uma empresa que realmente entende isso é um gigante silencioso na indústria fintech, a PrecisionLender. Sua tecnologia de IA permite que os bancos escrevam o empréstimo mais ideal para potenciais clientes. Ao mesmo tempo, empodera os banqueiros que escrevem os empréstimos a terem relacionamentos mais informados e melhores com seus clientes, e serem simultaneamente mais orientados por dados e mais humanos do que a abordagem anterior, que enfatizava um resultado binário, sim/não.

Imagine um futuro onde você realmente aprende a usar melhor os produtos de uma empresa toda vez que liga para sua linha de suporte. Estamos certamente ao alcance desse futuro. Depois de tudo, por que se contentar com um Competente Jerk ou um Lovable Fool quando você pode ter algo completamente diferente: uma parceria verdadeiramente benéfica?

Este artigo apareceu originalmente em nome do Forbes Technology Council, uma comunidade para CIOs, CTOs e executivos de tecnologia de classe mundial. Leia o post original aqui.

De acordo com a Pesquisa PwC CEO divulgada no final do mês passado, 45% das organizações norte-americanas introduziram iniciativas de inteligência artificial (IA), com mais 37% planejando fazê-lo nos próximos três anos. Não é surpreendente que tantos CEOs estejam adotando ferramentas de inteligência artificial, dadas as vantagens alardeadas. Como CEO que trabalha com líderes seniores em empresas em rápido crescimento para capacitar suas equipes de atendimento ao cliente, estou observando um grande e crescente desencaixe entre o hype da IA e a realidade da IA. Além disso, estou vendo duas categorias de “falhas de IA” — iniciativas que não chegam nem perto de alcançar os resultados esperados. Essas geralmente envolvem as ferramentas de IA “Competente Jerk” e as ferramentas de IA “Lovable Fool”.

artboard-1-copy.png

A ferramenta de IA 'Competente Jerk'

Em 2014, a equipe de aprendizado de máquina da Amazon construiu um algoritmo projetado para acelerar o processo de revisão de currículos, com o objetivo de contornar o processo tradicionalmente lento e caro conduzido por humanos. Um computador pode analisar milhares de currículos mais rápido do que até mesmo o recrutador mais experiente em leitura rápida. Usar IA nesta situação era uma decisão segura — no papel.

No entanto, em um ano, a Amazon percebeu que a IA não estava funcionando como haviam esperado. Ao treinar a IA com base nos padrões de contratação e currículos enviados na última década — que tendiam a ser esmagadoramente masculinos — o sistema decidiu que os candidatos deveriam ser do sexo masculino para serem considerados os melhores. Currículos que incluíam a palavra “mulher” ou “mulheres”, ou que listavam candidatos como formados em algumas faculdades femininas, foram automaticamente rebaixados. Mesmo após ajustes manuais no algoritmo para prevenir os preconceitos mais óbvios, os executivos da Amazon acabaram perdendo a confiança e encerraram o projeto.

Este exemplo é um erro de alto perfil do tipo “competente jerk”. Embora a ferramenta de recrutamento de IA da Amazon possa ter cumprido bem suas funções, acabou amplificando os preconceitos dos seres humanos, o que levou a um resultado inaceitável sob qualquer perspectiva. Por falar nisso, a Amazon não é a única vítima de tal projeto. Conheço dezenas de empresas que estão executando projetos de IA agora com resultados igualmente decepcionantes, porque suas ferramentas de IA são “competentes jerk”.

Pior, muitas dessas iniciativas estão voltadas para o cliente. Imagine uma ferramenta de IA “competente jerk” solta em uma década de respostas dos seus agentes de suporte para perguntas e tickets de clientes. Se a ferramenta otimiza para responder às perguntas dos clientes o mais rápido possível e se livrar deles, ignorará completamente quaisquer oportunidades de educar seus clientes e talvez de realizar vendas adicionais. Ela também ignorará as emoções dos clientes e, talvez, levará a um aumento no número de clientes deixando.

Existem muitos outros modos de falha além dos mencionados acima. Você está disposto a apostar a receita da sua empresa em um monte de ferramentas de IA “competentes jerk”?

A ferramenta de IA 'Lovable Fool'

Embora os “competentes jerk” não pareçam tão bons, as ferramentas de IA “lovable fool” podem ser ainda piores. Em um esforço para fazer com que os chatbots pareçam mais humanos, muitas empresas se esforçaram para dar “personalidades” a seus chatbots. Infelizmente, esse esforço vem com um custo para a eficácia da ferramenta de IA e o valor que ela entrega aos clientes. No extremo da escala das ferramentas de IA “lovable fool” está este exemplo de dois bots presos em um loop infinito respondendo um ao outro no Twitter. É o equivalente moderno dos doisIdiotas da vila gritando um com o outro na praça da cidade.

Um exemplo mais realista (mas igualmente frustrante) é o número crescente de vezes que liguei para um número de atendimento ao cliente apenas para ouvir: “Olá! Espero que você esteja tendo um ótimo dia! Por favor, diga em voz alta o problema que você está tendo.” Esperançoso, dada a “personalidade” agradável do bot, eu atendo e falo no meu telefone, apenas para que o bot me entenda mal e redirecione minha chamada.

Um exemplo da vida real disso é o chatbot de comércio da Vodafone chamado TOBi, que aparentemente costumava direcionar os clientes para a equipe de luto quando eles relataram que seus telefones estavam “mortos”. Apesar da pontada de tristeza que todos sentimos quando um telefone amado faz seu caminho para o grande provedor no céu, não acredito que a equipe de luto seja onde a maioria dos clientes queira ser direcionada.

Você pode argumentar que esses bots não são “realmente IA” e eu concordaria com você. No entanto, em minha experiência, eles estão certamente sendo comercializados dessa forma para executivos seniores em empresas ao redor do mundo que querem garantir que não percam o barco na próxima grande onda de inovação. E dado o alto volume de chamadas de serviço ao cliente que ocorrem, estes são ótimos terrenos de treinamento para a próxima geração de ferramentas de IA “lovable fool”.

Uma maneira melhor — talvez

Uma lição que eu, pessoalmente, tiro, com base nas histórias que ouvi de clientes e nas ferramentas que uso pessoalmente como consumidor, é que as ferramentas de IA não estão prontas para substituir os seres humanos. Fazemos tantas coisas bem, desde entender contexto e emoção e coloquialismo, até comunicar de forma eficaz e ajustar num instante quando as circunstâncias mudam.

Uma empresa que realmente entende isso é um gigante silencioso na indústria fintech, a PrecisionLender. Sua tecnologia de IA permite que os bancos escrevam o empréstimo mais ideal para potenciais clientes. Ao mesmo tempo, empodera os banqueiros que escrevem os empréstimos a terem relacionamentos mais informados e melhores com seus clientes, e serem simultaneamente mais orientados por dados e mais humanos do que a abordagem anterior, que enfatizava um resultado binário, sim/não.

Imagine um futuro onde você realmente aprende a usar melhor os produtos de uma empresa toda vez que liga para sua linha de suporte. Estamos certamente ao alcance desse futuro. Depois de tudo, por que se contentar com um Competente Jerk ou um Lovable Fool quando você pode ter algo completamente diferente: uma parceria verdadeiramente benéfica?

Experimente o poder da plataforma Guru em primeira mão - faça nosso tour interativo pelo produto
Faça um tour